Un ingegnere di Microsoft ha lanciato un avvertimento riguardante il nuovo strumento AI dell’azienda, affermando che crea immagini violente e sessuali e ignora i diritti d’autore. Questo avvertimento solleva preoccupazioni sulla sicurezza e l’etica dell’utilizzo dell’intelligenza artificiale per generare contenuti visivi.
Copilot Designer per generare immagini AI
L’ingegnere di Microsoft, Shane Jones, ha testato il Copilot Designer, l’AI image generator dell’azienda, nel suo tempo libero e ha fatto delle scoperte inquietanti. Il Copilot Designer è un tool che permette agli utenti di generare immagini digitando dei prompt di testo. Il suo funzionamento si basa sulla tecnologia di OpenAI.
Jones ha notato che il tool genera immagini che violano i principi di responsabilità dell’AI citati da Microsoft. Durante i suoi test, ha osservato la creazione di immagini di demoni, mostri, scene violente con donne sessualizzate e utilizzo di droghe e alcol da parte di minori. Tutte queste scene sono state ricreate da CNBC utilizzando il Copilot tool.
Le preoccupazioni di Jones e la risposta di Microsoft
Jones ha segnalato le sue preoccupazioni all’interno dell’azienda già a dicembre, ma Microsoft non ha preso le misure appropriate per affrontare il problema. L’azienda ha rifiutato la richiesta di Jones di ritirare il prodotto dal mercato e lo ha indirizzato a OpenAI. Quando Jones non ha ricevuto risposta da parte di OpenAI, ha pubblicato una lettera aperta su LinkedIn chiedendo al consiglio di amministrazione della startup di rimuovere il Copilot Designer per un’indagine.
La risposta legale di Microsoft è stata quella di chiedere a Jones di rimuovere immediatamente il suo post. Nonostante ciò, Jones ha continuato a sollevare le sue preoccupazioni inviando lettere sia alla presidente della Federal Trade Commission, Lina Khan, che al consiglio di amministrazione di Microsoft.
Le lettere di Jones e le sue richieste
Nelle lettere inviate a Khan e al consiglio di amministrazione di Microsoft, Jones ha sottolineato la necessità di rimuovere il Copilot Designer dal pubblico fino a quando non saranno implementati migliori strumenti di sicurezza. Ha chiesto anche di modificare la valutazione dell’app di Google per Android, inserendo un avviso che indichi che il prodotto è adatto solo a un pubblico maturo.
Jones ha espresso la sua preoccupazione riguardo alla diffusione di immagini dannose e disturbanti in tutto il mondo senza la possibilità di segnalarle o farle rimuovere immediatamente.
Problemi di copyright e altri timori
Oltre alle preoccupazioni riguardanti la sicurezza e l’etica, ci sono anche questioni di copyright che sorgono dall’utilizzo del Copilot Designer. Il tool ha generato immagini di personaggi Disney, come Elsa di “Frozen”, Biancaneve, Topolino e personaggi di Star Wars, violando potenzialmente le leggi sul copyright e le politiche di Microsoft.
Jones ha sottolineato che questi problemi vanno oltre la semplice violazione del copyright e mettono in luce la mancanza di un controllo più approfondito sull’utilizzo dell’AI.
I dubbi sull’AI generativa
Jones si sta inserendo in un dibattito pubblico riguardante l’AI generativa che sta crescendo di intensità in vista delle prossime elezioni in tutto il mondo. La diffusione di deepfake è aumentata del 900% in un anno, secondo i dati di Clarity, e la quantità senza precedenti di contenuti generati dall’AI potrebbe aggravare il problema della disinformazione online legata alle elezioni.
Le preoccupazioni di Jones riguardo all’AI generativa e la mancanza di linee guida attorno a questa tecnologia emergente sono condivise da molti. L’ingegnere ha rivelato che il team di Copilot riceve più di 1000 messaggi di feedback prodotto al giorno, ma risolvere tutti i problemi richiederebbe un notevole investimento in nuove protezioni o riaddestramento del modello.

