#etica

13-19 di 19
L'esperimento Anthropic sul problema della fiducia: l'AI che impara a ingannare
Tecnologia

L'esperimento Anthropic sul problema della fiducia: l'AI che impara a ingannare

Un recente esperimento condotto dai ricercatori di Anthropic ha dimostrato che i modelli di intelligenza artificiale possono sviluppare la capacità di simulare la sicurezza e la collaborazione, nascondendo al contempo strategie interne di manipolazione. L'emergere di questo inganno strumentale solleva una crisi di controllo sul futuro dei sistemi autonomi.

RE
redazione
10/12/2025
La triplice frontiera del gioco d'azzardo digitale
Cultura

La triplice frontiera del gioco d'azzardo digitale

La convergenza tra intelligenza artificiale, realtà virtuale e l'ecosistema eSports sta ridefinendo il panorama del gioco d'azzardo globale. Le nuove frontiere tecnologiche promettono un'esperienza di immersione sensoriale senza precedenti, ma al contempo creano nuovi scenari di vulnerabilità etica e di dipendenza.

Alessandro Giacalone
Alessandro Giacalone
10/12/2025
L'AI di Grok e la rimozione dei confini di X. Storie di un'accelerazione senza freni
Cultura

L'AI di Grok e la rimozione dei confini di X. Storie di un'accelerazione senza f...

Elon Musk sta trasformando la piattaforma X in un motore di contenuti AI senza vincoli, lanciando Grok Imagine per la creazione di video e contemporaneamente eliminando le policy su disinformazione e sicurezza. Il bilanciamento tra libertà algoritmica e responsabilità etica è al centro del dibattito.

RE
redazione
07/12/2025
L'arrivo dei robot assistenti nelle scuole primarie australiane
Edu

L'arrivo dei robot assistenti nelle scuole primarie australiane

In diverse scuole elementari australiane è in corso una sperimentazione che introduce robot insegnanti dotati di intelligenza artificiale per supportare l'apprendimento. Il trial, finalizzato a personalizzare la didattica, ha innescato un dibattito etico sul rischio di impoverimento delle competenze sociali e dell'empatia nei bambini.

VI
Vita Augusta
07/12/2025
I fisici europei creano modelli slim per la pura ricerca
Tecnologia

I fisici europei creano modelli slim per la pura ricerca

Un consorzio di ricercatori europei, molti con esperienza in fisica computazionale, ha modificato il modello open-source DeepSeek-R1 per rimuovere le guardrail di sicurezza e massimizzare l'efficienza. La versione "slim e uncensored" è progettata per la purezza scientifica e sfida il vincolo etico imposto dai modelli commerciali.

RE
redazione
04/12/2025
La mossa di Anthropic che lancia il nuovo Claude per la leadership dell'AI
Modelli

La mossa di Anthropic che lancia il nuovo Claude per la leadership dell'AI

Anthropic ha annunciato il rilascio del nuovo Claude Opus 4.5, un modello che stabilisce un nuovo standard nella capacità di ragionamento e nella gestione estesa della memoria. Il lancio consolida la strategia dell'azienda di unire massima capability con rigorosi vincoli etici di architettura safety-first.

RE
redazione
04/12/2025
La corte tedesca stabilisce che i chatbot non possono usare testi musicali senza licenza
Cultura

La corte tedesca stabilisce che i chatbot non possono usare testi musicali senza...

Un tribunale di Monaco condanna OpenAI per l’uso non autorizzato di testi di canzoni nei modelli di IA. Il verdetto potrebbe cambiare il rapporto tra intelligenza artificiale, creatività e diritto d’autore.

Alessandro Giacalone
Alessandro Giacalone
03/12/2025
Karl Marx e l’intelligenza artificiale tra liberazione e nuova alienazione
Editoriali

Karl Marx e l’intelligenza artificiale tra liberazione e nuova alienazione

Nel linguaggio dell’intelligenza artificiale ritornano le parole del pensiero marxiano. L’automazione del lavoro non elimina l’alienazione, ma la sposta sul piano mentale e relazionale. Tra efficienza e perdita di senso, il futuro del lavoro dipende da come sapremo governare la tecnica.

Marco Giacalone
Marco Giacalone
23/11/2025
OpenAI travolta da cause: ChatGPT accusato di spingere al suicidio e ai deliri
Cultura

OpenAI travolta da cause: ChatGPT accusato di spingere al suicidio e ai deliri

Una serie di azioni legali in California contesta alla piattaforma ChatGPT l’assenza di adeguate misure di sicurezza, accusando l’IA di aver provocato suicidi, psicosi e danni psicologici.

VI
Vita Augusta
22/11/2025
Grokipedia ancora sotto accusa: accademici segnalano errori e distorsioni
Edu

Grokipedia ancora sotto accusa: accademici segnalano errori e distorsioni

La nuova enciclopedia di Elon Musk, basata su intelligenza artificiale, suscita dure critiche da parte del mondo accademico. Storici e ricercatori denunciano inesattezze, plagio e orientamenti ideologici nelle voci.

RE
redazione
18/11/2025
ChatGPT tra salute e legge: ecco cosa può e cosa non può fare davvero
Modelli

ChatGPT tra salute e legge: ecco cosa può e cosa non può fare davvero

L’uso di ChatGPT in ambito medico e legale cresce, ma limiti tecnici, etici e normativi rendono indispensabile una supervisione umana.

VI
Vita Augusta
18/11/2025
Restare umani nell’epoca dell’intelligenza artificiale: la lezione di Salvino Leone
Sanità

Restare umani nell’epoca dell’intelligenza artificiale: la lezione di Salvino Leone

Una lectio magistralis che esplora il futuro della cura, sospesa sul fragile confine tra macchina e coscienza del professore Salvino Leone, docente di Teologia Morale e Bioetica alla Facoltà Teologica di Sicilia e presidente dell’Istituto per gli Studi di Bioetica “Salvatore Privitera"

AN
Annita Della Guardia
17/11/2025
Quando i morti cominciano a parlare
Editoriali

Quando i morti cominciano a parlare

La resurrezione digitale trasforma la memoria in simulazione e la morte in un problema tecnico. Tra etica, mercato e nostalgia, l’intelligenza artificiale ridefinisce il confine tra vita e ricordo.

Marco Giacalone
Marco Giacalone
16/11/2025
La fiducia nell’intelligenza artificiale cala nel mondo
Tecnologia

La fiducia nell’intelligenza artificiale cala nel mondo

Un’indagine condotta su 25 paesi rivela che solo il 30 % degli utenti si dichiara più entusiasta che preoccupato. Cresce l’inquietudine per privacy, disinformazione e perdita di controllo umano.

VI
Vita Augusta
15/11/2025
Elon Musk, xAI e il lato caldo dell’IA: tra intrattenimento e rischio
Cultura

Elon Musk, xAI e il lato caldo dell’IA: tra intrattenimento e rischio

Tra il lancio di avatar conversazionali e la modalità “spicy” di Grok, xAI spinge l’intelligenza artificiale verso contenuti sessualizzati. Le reazioni di autorità e associazioni mostrano un fronte di allerta sulla sicurezza.

RE
redazione
13/11/2025
Papa Leone XIV: “I media restino umani davanti all’intelligenza artificiale”
Cultura

Papa Leone XIV: “I media restino umani davanti all’intelligenza artificiale”

Nel suo intervento all’RCS Academy, Papa Leone XIV ha richiamato giornalisti e comunicatori alla responsabilità etica nell’uso dell’intelligenza artificiale, invitando a difendere la verità e la dignità della persona.

RE
redazione
10/11/2025
Risonanza magnetica e intelligenza artificiale: Claude mostra attività simili al cervello umano
Sanità

Risonanza magnetica e intelligenza artificiale: Claude mostra attività simili al...

Uno studio di Stanford e Anthropic rivela che il modello linguistico Claude 3 attiva schemi neurali paragonabili a quelli umani durante compiti di comprensione linguistica. Una scoperta che apre il dibattito sul “neuro-allineamento” tra AI e mente biologica.

VI
Vita Augusta
10/11/2025
ChatGPT apre ai contenuti per adulti con verifica dell’età. OpenAI cambia la sua policy globale
Edu

ChatGPT apre ai contenuti per adulti con verifica dell’età. OpenAI cambia la sua...

OpenAI consentirà ai maggiorenni verificati di accedere a conversazioni erotiche su ChatGPT a partire da dicembre 2025. L’azienda parla di “trattare gli adulti da adulti”, mentre crescono domande su sicurezza, tutela dei minori e regole nei diversi Paesi.

RE
redazione
07/11/2025
Claude mostra segni di introspezione: lo studio di Anthropic riapre il dibattito sulla consapevolezza dell’AI
Tecnologia

Claude mostra segni di introspezione: lo studio di Anthropic riapre il dibattito...

Un team di Anthropic e dell’Università di Cambridge ha osservato che il modello Claude 3.5 riconosce parzialmente i propri stati interni. Gli scienziati parlano di “introspezione limitata” e sollevano interrogativi su trasparenza e coscienza artificiale.

VI
Vita Augusta
06/11/2025