Lo scorso 11 settembre, la FTC (Federal Trade Commission) statunitense ha avviato un'inchiesta sui chatbot di diverse note aziende, chiedendo loro di fornire informazioni e dettagli sul monitoraggio dei potenziali impatti negativi provocati dalla nuova tecnologia.
In seguito alla denuncia di Reuters, che ha portato all'attenzione dei media l'esistenza di alcune politiche di Meta che permetterebbero ai chatbot AI di avere conversazioni "romantiche" con bambini, la FTC ha attivato uno stretto monitoraggio delle società che utilizzano IA generativa. L'indagine è volta a capire in che modo le aziende usano le informazioni ottenute attraverso le conversazioni con i chatbot AI e che impatto hanno le interazioni sugli adolescenti e sui bambini. OpenAI era stata citata in giudizio da una famiglia, a causa del ruolo che ChatGPT avrebbe avuto nel suicidio del figlio. Ma non è solo OpenAI ad essere al centro di bufere legali. Anche Character.AI, infatti è stata coinvolta in una insidiosa causa, nonostante l'azienda abbia promesso l'introduzione di nuovi e più potenti sistemi di sicurezza e abbia manifestato alla FTC la volontà di "fornire informazioni sull’industria dell’AI per i consumatori e sullo spazio della tecnologia che evolve rapidamente". E mentre Snap si dimostra propositiva dichiarando: "Condividiamo l’attenzione della FTC per garantire lo sviluppo riflessivo dell’AI generativa, e non vediamo l’ora di lavorare con la Commissione su politiche che rafforzino l’innovazione negli Stati Uniti proteggendo la nostra comunità", Meta, invece, ha finora declinato ogni commento sulla questione.
Emissione degli ordini e cosa non è ancora chiaro
All'origine dello scalpore è l'accesa protesta, davanti al Congresso, dei genitori protagonisti delle vicende, che hanno fatto da catalizzatore alla questione chiedendo a gran voce regolamentazioni più forti. L'agenzia governativa, che si occupa della tutela della legge, sulla scorta dell'FTC Act, ha allora inviato d'autorità a 7 aziende (Alphabet, Meta, Instagram, OpenAI, Snap, Character.AI, xAI) degli ordini obbligatori a fornire informazioni in merito ai test condotti sui chatbot AI, all'utilizzo dei dati e alle informazioni che vengono date agli utenti che utilizzano questi servizi open-source.
Ad oggi però non sono ancora state prese delle decisioni regolamentari vincolanti e non sono state emesse sanzioni, né sono state rese pubbliche le risposte delle aziende alla FTC, tantomeno che documentazione abbiano fornito. Non sono stati dettati neppure termini entro cui la FTC prenderà le sue decisioni. E le cause legali connesse alla vicenda sono ancora aperte.
I prossimi passaggi, qualora la FTC giungesse ad una conclusione, potrebbero fare emergere delle linee guida obbligatorie e delle regolamentazioni specifiche soprattutto per quanto riguarda i minori.