Si parla molto in questo periodo sulla stampa di settore e anche non di settore di ChatGPT. Per chi non lo conoscesse è il nuovo motore di AI messo a disposizione per libero utilizzo da OpenAI, azienda che si occupa da anni ormai dello sviluppo di Inteligenze Artificiali per diversi usi.
L’innovativa caratteristica di questo software è quella di riuscire a creare contenuti e correlare informazioni provenienti dalla sconfinata libreria di testi messi a disposizione per il suo addestramento dagli sviluppatori dell’azienda produttrice.
Testi sulla base dei quali il motore è stato “addestrato”, si dice in gergo, in modo da renderlo in grado di creare risposte del tutto indistinguibili da quelle che potrebbe costruire un essere umano.
Visto cosi sembrerebbe la nuova frontiera dei motori di ricerca. Dove un motore come Google si limita a fornirvi i risultati che ritiene tra i più pertinenti in merito alla vostra domanda solo cercando su Internet, ChatGPT è in grado di darvi una risposta completa e puntuale completa e argomentata.
Scrive per voi testi, analisi, riassunti…. mette in correlazione filosofi, risolve problemi matematici, scrive script e programmi per poi modificarli in base ad ogni vostro desiderio.

Non sto a decantare oltre questa tecnologia che è già stata esaltata da molti esperti e sminuita da altri. Per chi la volesse provare, se già non lo aveste, vi lascio qui il link per raggiungerla (https://chat.openai.com/chat) in modo che possiate farvi una vostra opinione.
Quello su cui mi soffermo è l’enorme incomprensione che secondo me in questi giorni circonda questa tecnologia. Leggo articoli anche su eminenti quotidiani relativi al fatto che la nuova AI non sa la matematica o fornisce risposte palesemente sbagliate a certe domande su un argomento o l’altro.
Premesso che i creatori del motore hanno ben spiegato che gli errori sono possibili…. mi chiedo perché’ nessuno si fermi a fare un attimo di riflessione sul perché’ tali errori siano possibili.

Pare infatti che l’aspettativa comune sia quella di dover confrontare questo motore con una sorta di ideale perfetto Oracolo, in grado di dare risposte sempre corrette senza mai sbagliare una sola previsione. Forse convinti che, come qualsiasi software, anche questo dovrebbe essere rilasciato solo e solamente quando non ha piu nessun difetto.

Eppure non ci si rende conto che sta in queste risposte erronee, secondo me, il suo avvicinamento ad avere un’intelligenza. ChatGPT crea risposte in base a quello che ha appreso e a quello che ha interpretato, esattamente come faremmo noi. In base a come gli facciamo domande fornisce risposte differenti perché’ la domanda stessa lo porta a recuperare informazioni da testi differenti. Esattamente come faremmo noi in base ai nostri ricordi.
Vuol dire che e’ perfetto? Assolutamente no. Vuol dire solo che si avvicina all’Intelligenza definita come capacità di apprendere, ricordare, correlare e utilizzare informazioni.

Il problema è che questo non e’ abbastanza.
Quello che vorremmo da questa tecnologia, ovviamente, sono delle risposte sempre affidabili e corrette. Ma per ottenere queste, come chiederemmo a qualsiasi essere umano scrupoloso nel preparare una ricerca, quello che vorremmo è l’applicazione di un pensiero critico. La capacità cioè di verificare un risultato in base ad altre fonti ritenute affidabili in modo da produrre un risultato finale che si possa ritenere comprovato e argomentato. Solo cosi otterremmo qualcosa di realmente soddisfacente.
Questo ancora manca… ed è per questo che altre aziende come Google che hanno già creato AI simili (si veda il progetto LaMDA) sono ancora lontane dal mettere sul mercato i loro prodotti. Non si possono permettere di fornire strumenti che darebbe risultati a volte palesemente sbagliati ai loro clienti che invece si aspettano di avere un loro personale piccolo e infallibile Oracolo di Delphi a disposizione, pronto per ogni loro richiesta.

Ma in questo vedo una doppia contraddizione.

Da una parte ci siamo noi consumatori che, me ne rendo conto parlando con le persone di questa tecnologia, abbiamo di fatto delle aspettative sbagliate. Un’AI può sbagliare esattamente come sbaglierebbe qualsiasi intelligenza evoluta. Semplicemente perché’ fa la relazione sbagliata oppure perché’ ha dato per attendibili delle informazioni che in realtà andrebbero verificate. E’ grave? No. Basta che si capisca il suo errore e gli si insegni esattamente come faremmo con un nostro collega, in modo che non ripeta più lo stesso errore.

Dall’altra mi sembra che queste aziende siano ancora restie a commercializzare l’uso di questi strumenti palesemente fallibili che invece hanno già oggi un’utilità incredibile. E’ sufficiente che chi li usa abbia ben chiaro che, almeno finche’ non miglioreranno ulteriormente, andranno utilizzati per quello che sono: degli strumenti che riducono enormemente il lavoro al prezzo di qualche verifica da parte del loro utilizzatore.

Ho provato ad usare ChatGPT nell’ultimo mese per fare ricerche e analisi di diverso tipo. Mi sono accorto che da risposte diverse in base a come gli vengono poste le domande ma non solo. In base al nostro riscontro si corregge e modifica le proprie risposte. La fallibilità o l’imprecisione quindi fanno parte della sua natura… ed è proprio questo il bello. A patto che possiamo migliorarlo e che i risultati di quel miglioramento ci vengano riconosciuti.

Come utente a me va benissimo partecipare al miglioramento di uno strumento per me enormemente utile…. tuttavia questo tipo di miglioramento non può essere gratuito. Deve esserci una qualche forma di compensazione altrimenti di fatto l’azienda produttrice delega a noi il lavoro di migliorare il suo prodotto, senza darci nessun genere di riscontro. Anche questo è un punto su cui chi produce questo tipi di prodotto dovrebbe riflettere. Esattamente come fa qualsiasi fornitore di consulenza. Se ti metto a disposizione una figura Junior che deve imparare magari sbagliando, al posto di una Senior, come minimo devi farmela pagare di meno…. no? O quantomeno mi devi riconoscere il fatto che sto collaborando alla sua formazione facendomi gli adeguati sconti su base periodica, in base a quanto del mio tempo ho dedicato per farla apprendere.

Fatta queste premesse, nella speranza che vengano fatte anche le adeguate riflessioni da chi produce queste AI, lo strumento rimane comunque fantastico. Ho provato a fargli scrivere script di diverso genere per le mie necessità, chiedendo correzioni ed integrazioni, sempre in linguaggio naturale,  e ottenendo alla fine sempre un buon risultato. Perfetto? No. Da controllare.
Delle buone bozze da cui partire che però mi hanno fatto risparmiare un bel po’ di tempo.

Come per qualsiasi strumento che usiamo, la prima cosa da avere sempre ben chiara, secondo me, è dove sono e quali sono i suoi limiti. Chiariti questi lo si può utilizzare in modo ragionato e responsabile ottenendone solo vantaggi.

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo di WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s...