Microsoft limita l’affidabilità di Copilot nei nuovi termini di utilizzo

Microsoft aggiorna le condizioni d’uso di Copilot introducendo avvertenze che ridimensionano l’affidabilità dell’assistente AI. Tra limiti tecnici e fiducia degli utenti, emerge una distanza tra promozione commerciale e utilizzo reale degli strumenti basati su modelli linguistici.

Microsoft limita l’affidabilità di Copilot nei nuovi termini di utilizzo
Condividi:
2 min di lettura

Microsoft, dopo aver investito significative risorse nell'implementazione di Copilot all'interno di Windows 11 e della suite Microsoft 365, ha modificato lo scorso ottobre i termini di utilizzo del servizio. Questa revisione ha sollevato dubbi sulla reale affidabilità degli strumenti basati su modelli linguistici di grandi dimensioni (LLM). Nei nuovi termini si legge cheCopilot è concepito esclusivamente per scopi di intrattenimento e può commettere errori o non funzionare come previsto. Gli utenti sono invitati a non fare affidamento su di esso per decisioni importanti e ad utilizzarlo a proprio rischio. Una formulazione che sembra discordare con la strategia commerciale dell'azienda, che ha promosso gli assistenti Copilot+ come strumenti per incrementare la produttività professionale, superando una visione meramente ricreativa.

Questo tipo di dichiarazione, tuttavia, non è un caso isolato nel settore tecnologico. Anche xAI, l'azienda fondata da Elon Musk, include nei propri documenti legali avvertimenti simili, evidenziando la natura probabilistica dei modelli di intelligenza artificiale. Tali strumenti, infatti, possono generare contenuti inesatti, informazioni errate o risultati non in linea con le aspettative dell'utente. Questa pratica comune tra le aziende tech rimarca una discrepanza evidente tra il marketing orientato al pubblico e la prudenza giuridica esplicitata nei termini di servizio. Dal punto di vista tecnico, questa problematica si radica nella natura stessa degli LLM. Questi modelli generano testi basandosi su correlazioni statistiche apprese durante la fase di addestramento e non possiedono una comprensione semantica reale dei contenuti. Tale approccio li rende suscettibili alle cosiddette "allucinazioni", ovvero risposte apparentemente coerenti ma prive di fondamento reale.

Questo limite è intrinseco alla tecnologia attuale e non dipende direttamente dalla complessità o dalla dimensione delmodello. In aggiunta, esiste anche una componente cognitiva nota come bias da automazione, che spinge gli utenti a daremaggior peso alle risposte fornite da sistemi automatizzati rispetto alle proprie valutazioni critiche. L'intelligenza artificiale generativa amplifica questa tendenza, grazie alla capacità di produrre contenuti ben strutturati e convincenti,anche in presenza di inesattezze. Questo rende più complesso per gli utenti distinguere tra informazioni accurate ed erronee. Per chi utilizza strumenti come Copilot, ChatGPT o altri assistenti linguistici in contesti professionali, emerge una raccomandazione cruciale.


Gli esperti di cybersicurezza e gli studiosi di etica dell'intelligenza artificiale consigliano infatti di considerare le risposte generate come un punto di partenza da verificare, piuttosto che una risorsa definitiva. Tale precauzione è particolarmente importante in ambiti come quello medico, legale, finanziario o ingegneristico, dove anche errori minimi possono comportare conseguenze significative

Tag: