E se ci fossimo sbagliati sull’intelligenza reale di ChatGPT?…

E se ci fossimo sbagliati sull’intelligenza reale di ChatGPT?…

23/05/2023 3 By fogliotiziana

Per quanto impressionante, ChatGPT sarebbe ancora tutt’altro che intelligente. Rodney Brooks mette così in guardia in un’intervista contro la tendenza a sopravvalutare le capacità dell’intelligenza artificiale sviluppata da OpenAI. Più in generale, le attuali tecnologie di intelligenza artificiale sono, secondo l’esperto, ancora lontane dal poterci portare ad una vera intelligenza artificiale generale (AGI).

Se hai sperimentato gli ultimi modelli AI (LLM) di OpenAI, potresti aver notato la notevole differenza di rendering tra GPT-3.5 e GPT-4 (esclusivo per gli abbonati ChatGPT Plus e gli utenti Bing Chat). E per una buona ragione: GPT-4 è stato addestrato con un insieme di dati molto più molto più ampio. Ciò gli consente di generare contenuti decisamente più pertinenti e “umani”, almeno in apparenza.

ChatGPT-4 non è ancora “intelligente” in senso stretto

ChatGPT, soprattutto nella sua versione GPT-4, è un modello di intelligenza artificiale che simula il linguaggio umano. Ma quanto è vicino a raggiungere l’intelligenza artificiale generale (AGI), quella che ci permetterebbe di dialogare con le macchine come con gli esseri umani?

Su questo tema ci sono opinioni diverse e dibattiti accesi. Alcuni credono che sia possibile, altri sono scettici. Un esempio di questo confronto è la conferenza universitaria in cui il ricercatore Sebastien Bubeck di Microsoft ha messo alla prova il modello per verificare se soddisfa alcuni criteri di intelligenza.

Secondo la sua ricerca, GPT-4 ha capacità di ragionamento, può risolvere problemi, pensare in modo astratto e comprendere idee complesse. D’altra parte, il modello non può pianificare azioni successive da solo e la sua capacità di apprendere rapidamente dalla sua esperienza è limitata al contesto delle conversazioni.

Programmi come AutoGPT sono stati sviluppati per trascendere queste limitazioni e rendere l’azione di GPT-4 più autonoma e intelligente, con un certo successo: AutoGPT è anche uno degli argomenti attuali più “caldi” sull’IA. Ma GPT-4 non è infallibile e, di conseguenza, i risultati ottenuti da AutoGPT e altre iniziative simili rimangono imprevedibili, mettendo in dubbio la capacità dell’attuale modello di consentire il raggiungimento della fase AGI.

Tuttavia, a distanza di diversi mesi dal lancio dei modelli 3.5 e 4, fa sempre più sentire la propria voce la schiera di coloro che dubitano che ChatGPT sia dotato di una minima intelligenza. È in questo contesto che compare sulla rivista specializzata IEEE Spectrum un’intervista a Rodney Brooks, esperto di IA e robotica. Secondo lui, ChatGPT è in realtà molto più “stupido” di quanto potrebbero suggerire alcune delle sue risposte.

Nessuno degli attuali modelli LLM arriverà alla fase AGI

Secondo Rodney Brook, nessuno dei modelli attuali consentirà di raggiungere la fase AGI, per un motivo molto semplice: ChatGPT è completamente disconnesso dal mondo reale, e quindi non ha un modello che lo rappresenti. Afferma: “Quello che fanno questi modelli è la correlazione nel contesto del linguaggio. noi umani siamo bravi a capire le capacità di una persona da quello che fa, e a giudicarla di conseguenza. Ma non possiamo fare lo stesso con i sistemi di intelligenza artificiale. Questi sistemi sono solo in grado di simulare l’intelligenza con il linguaggio, ma non hanno le stesse competenze di una persona”.

L’esperto afferma: “I modelli linguistici di grandi dimensioni sono bravi a suggerire come dovrebbe essere una risposta”. Ma non hanno la capacità di dare sempre la risposta giusta. Lo dice basandosi sulle sue esperienze con la codifica assistita dall’intelligenza artificiale. Secondo lui: “ChatGPT risponde con sicurezza, e io ci credo”. Ma “spesso è completamente sbagliato. E perdo due o tre ore a provare [il suggerimento dell’IA] prima di capirlo, e dire a [ChatGPT] ‘Non funziona’”, racconta Rodney Brooks. E conclude che “questo non è intelligenza”.

Ti consiglio di leggere anche…

Una seduta di psicoanalisi con l’intelligenza artificiale: ma davvero?

HistorianGPT: il tuo insegnante di storia virtuale basato sull’intelligenza artificiale

Geoffrey Hinton teme che l’intelligenza artificiale possa superare quella umana, c’è da preoccuparsi?