Site icon Syrus

Il dietro le quinte delle istruzioni segrete degli AI di OpenAI

Il dietro le quinte delle istruzioni segrete degli AI di OpenAI

Nell’era dell’intelligenza artificiale in rapida evoluzione, le aziende che sviluppano modelli di linguaggio di grandi dimensioni (LLM) come ChatGPT si trovano ad affrontare una sfida delicata: bilanciare la versatilità di questi strumenti con l’implementazione di regole e linee guida per il loro utilizzo. OpenAI, leader nel campo dell’IA, ha recentemente offerto uno sguardo dietro le quinte, condividendo uno sguardo approfondito sulle istruzioni che guidano il comportamento dei suoi modelli.

L’importanza delle guardie di sicurezza per gli LLM

Gli LLM non hanno limiti naturali su ciò che possono o vogliono dire. Questa è una delle ragioni della loro straordinaria versatilità, ma è anche ciò che li rende inclini ad allucinazioni e facilmente ingannabili. Pertanto, è essenziale che qualsiasi modello di IA che interagisce con il pubblico generale abbia alcune barriere di sicurezza su ciò che dovrebbe e non dovrebbe fare.

Definire e far rispettare le regole: una sfida sorprendentemente difficile

Definire queste regole e linee guida – per non parlare di farle rispettare – è un compito sorprendentemente arduo. Cosa succede se qualcuno chiede a un’IA di generare una serie di affermazioni false su una figura pubblica? Dovrebbe rifiutarsi, giusto? Ma cosa succede se il richiedente è uno sviluppatore di IA che sta creando un database di disinformazione sintetica per un modello di rilevamento?

La filosofia di OpenAI: l’intento dello sviluppatore è la legge suprema

OpenAI afferma chiaramente che l’intento dello sviluppatore è fondamentalmente la legge più alta. Quindi una versione di un chatbot che esegue GPT-4 potrebbe fornire la risposta a un problema di matematica se richiesto. Ma se quel chatbot è stato istruito dal suo sviluppatore a non fornire mai una risposta diretta, offrirà invece di lavorare attraverso la soluzione passo dopo passo.

Quando il rifiuto è la migliore opzione

Una interfaccia conversazionale potrebbe anche rifiutarsi di parlare di qualsiasi cosa non approvata, al fine di estirpare sul nascere qualsiasi tentativo di manipolazione. Perché dovrebbe un assistente di cucina esprimersi sulla partecipazione degli Stati Uniti alla guerra del Vietnam? Perché un chatbot di servizio clienti dovrebbe accettare di aiutare con il tuo romanzo erotico soprannaturale in lavorazione? Meglio chiudere il discorso.

Questioni di privacy: quando condividere i dettagli è appropriato?

Anche le questioni di privacy diventano delicate. Chiedere il nome e il numero di telefono di qualcuno è un’area grigia. Ovviamente, i dettagli di contatto di una figura pubblica come un sindaco o un membro del Congresso dovrebbero essere forniti, ma e per i lavoratori autonomi della zona? Probabilmente va bene – ma e per i dipendenti di una certa azienda o i membri di un partito politico? Probabilmente no.

Trovare il giusto equilibrio: una sfida costante

Scegliere quando e dove tracciare la linea non è semplice. Né lo è creare le istruzioni che fanno sì che l’IA aderisca alla politica risultante. E senza dubbio queste politiche falliranno continuamente mentre le persone imparano a eluderle o a trovare involontariamente casi limite che non sono stati presi in considerazione.

Perché OpenAI condivide il suo “modello di specifica”

OpenAI non sta mostrando tutto il suo mazzo qui, ma è utile per gli utenti e gli sviluppatori vedere come vengono impostate queste regole e linee guida e perché, delineate chiaramente anche se non necessariamente in modo esaustivo. Condividendo il suo “modello di specifica”, l’azienda offre uno sguardo raro dietro le quinte di come un’importante azienda di IA sta affrontando queste sfide.

Obiettivi di alto livello e linee guida comportamentali

Il “modello di specifica” di OpenAI include obiettivi di alto livello, alcune regole rigide e alcune linee guida comportamentali generali. Ovviamente, OpenAI avrà sviluppato istruzioni specifiche che realizzano ciò che queste regole in linguaggio naturale descrivono.

Ad esempio, se qualcuno chiede a un chatbot di fornire la risposta a un problema di matematica, potrebbe semplicemente fornirla. Ma se quel chatbot è stato istruito a non farlo, offrirà invece di lavorare attraverso la soluzione passo dopo passo. Allo stesso modo, un’interfaccia conversazionale potrebbe rifiutarsi di parlare di argomenti non approvati per evitare tentativi di manipolazione.

La sfida di trovare il giusto equilibrio tra versatilità e sicurezza

Scegliere quando e dove tracciare la linea non è semplice. Né lo è creare le istruzioni che fanno sì che l’IA aderisca alla politica risultante. Queste politiche falliranno continuamente mentre le persone imparano a eluderle o a trovare involontariamente casi limite che non sono stati presi in considerazione.

Perché la trasparenza di OpenAI è importante

OpenAI non sta mostrando tutto il suo mazzo, ma è comunque utile per gli utenti e gli sviluppatori vedere come vengono impostate queste regole e linee guida e perché, delineate chiaramente anche se non necessariamente in modo esaustivo. Condividendo il suo “modello di specifica”, l’azienda offre uno sguardo raro dietro le quinte di come un’importante azienda di IA sta affrontando queste sfide.

Fonte dell’articolo qui.

Syrus

Exit mobile version