Alibaba rilancia l'app Qwen mentre gli Stati Uniti sollevano dubbi sulla sicurezza
Alibaba ridisegna il suo assistente AI e lancia la nuova app Qwen, mentre un memo della Casa Bianca accusa il gruppo cinese di collaborare con l'esercito di Pechino.
Alibaba ridisegna il suo assistente AI e lancia la nuova app Qwen, mentre un memo della Casa Bianca accusa il gruppo cinese di collaborare con l'esercito di Pechino.
Un hacker ha esportato dataset con informazioni personali il 9 novembre. OpenAI notificata il 25, ha terminato il contratto e rivede tutti i fornitori esterni. Nessun dato sensibile compromesso.
Con il nuovo aggiornamento l’app integra funzioni conversazionali, navigazione basata su punti di riferimento e segnalazioni proattive. Cambia il modo in cui ci orientiamo nel mondo.
Con i sistemi MAI-Voice-1 e MAI-Image-1 Microsoft riduce la dipendenza da OpenAI e punta sulla propria tecnologia di intelligenza artificiale in Bing, Copilot e applicazioni aziendali.
I ricercatori avvertono che bastano poche centinaia di file manipolati per alterare il comportamento dei modelli di IA. Il data poisoning diventa la minaccia più invisibile del cyberspazio.
L’uso di ChatGPT in ambito medico e legale cresce, ma limiti tecnici, etici e normativi rendono indispensabile una supervisione umana.
OpenAI lancia la versione 5.1 del suo modello linguistico con opzioni di tono personalizzabili e due modalità di funzionamento. L’aggiornamento apre nuovi scenari ma pone anche interrogativi operativi.
Ricercatori di sicurezza identificano nuove tecniche di prompt-injection in ChatGPT che permettono il furto silente di informazioni personali. Un monito su quanto l’intelligenza artificiale possa essere usata come strumento offensivo.
OpenAI, Amazon, Microsoft e Nvidia siglano accordi da decine di miliardi di dollari per dominare l’infrastruttura dell’intelligenza artificiale nel prossimo decennio.
Tra crescita industriale e preoccupazioni etiche, la startup cinese DeepSeek divide esperti e investitori. Accuse di manipolazione, sfruttamento dei dati e impatto sociale alimentano un dibattito globale.
Google Maps integra il modello Gemini di Google LLC per offrire navigazione conversazionale, indicazioni basate su punti di riferimento e aggiornamenti in tempo reale su traffico e percorsi.
Benchmark, metriche, piattaforme: nell’era dell’IA generativa il problema non è solo “quanto” ma “come” misuriamo. E i limiti emergono con chiarezza.
Il 30 ottobre 2025 il Ceo di Apple ha dichiarato che Apple Intelligence sarà potenziata con nuovi modelli e integrazioni esterne, segnando una svolta strategica nella visione dell’intelligenza artificiale della società.
La joint venture Dongfeng Nissan annuncia in Cina l’integrazione del modello DeepSeek-R1 nell’elettrica N7. È la prima volta che un costruttore non cinese adotta la tecnologia sviluppata da DeepSeek.
La nuova funzione Canvas permette di trasformare testi e documenti in diapositive complete, integrando generazione automatica, layout e immagini nel flusso di lavoro di Google Workspace.
Un’indagine internazionale su 26 lingue condotta dalla University of Maryland e Microsoft rivela che il polacco registra la precisione più alta nei test sui modelli generativi. L’inglese, pur dominante nei dataset, si classifica solo sesto.
Anthropic introduce un sistema che permette di insegnare competenze specifiche al proprio modello AI senza riaddestrarlo. Le Skills cambiano il modo di lavorare con l’intelligenza artificiale e aprono un nuovo capitolo per l’automazione etica.
Un test condotto nel Regno Unito confronta ChatGPT e altri chatbot con l’esperienza dei professionisti dell’autoriparazione. I risultati sorprendono per precisione e linguaggio, ma sollevano dubbi sulla sicurezza del fai-da-te digitale.
Samsung e Microsoft estendono la presenza dell’assistente AI ai display di casa: riconoscimento vocale, supporto educativo, raccomandazioni personalizzate. Il televisore diventa hub centrale della smart home.
La startup AI unisce forze con National Nuclear Security Administration e Department of Energy per sviluppare un filtro che blocchi conversazioni pericolose sul suo modello “Claude”.
Gli utenti della versione a pagamento di ChatGPT devono richiedere manualmente l’esclusione dal training dei modelli. La funzione è automatica solo per la versione Team.