Anthropic ha presentato un’evoluzione del suo modello Claude destinata a cambiare il rapporto tra uomo e intelligenza artificiale. La novità si chiama “Skills” e consiste in un sistema modulare di competenze che l’AI può attivare solo quando serve, trasformando il modello in un assistente capace di adattarsi al contesto. L’obiettivo dichiarato è ridurre la complessità dell’uso quotidiano e rendere l’intelligenza artificiale realmente “a misura d’utente”.
Le Skills funzionano come librerie operative: possono contenere procedure, dati, istruzioni o script che Claude riconosce e richiama in modo autonomo. Non serve più riscrivere prompt complessi o addestrare nuovi modelli. Basta definire una competenza e metterla a disposizione del sistema, che la attiva nel momento in cui individua una richiesta pertinente. È un approccio che unisce l’immediatezza del prompt alla struttura di un software, offrendo flessibilità senza perdere controllo.
Secondo quanto pubblicato sul blog ufficiale di Anthropic, l’azienda ha progettato le Skills con tre principi chiave: modularità, controllo umano e sicurezza dei dati. Ogni competenza è isolata dalle altre e può essere disattivata in qualunque momento, garantendo che il comportamento dell’AI resti prevedibile. Questo modello rende Claude uno strumento che non impara in modo permanente, ma “ricorda temporaneamente” ciò che serve a risolvere il compito.
L’aspetto più interessante è la possibilità di creare Skills aziendali personalizzate. Un’impresa può sviluppare moduli per generare report, redigere documenti interni, rispettare policy di comunicazione o gestire l’analisi dei dati finanziari. In futuro queste funzioni potranno essere condivise all’interno di ecosistemi collaborativi, trasformando Claude in una piattaforma di lavoro distribuita.
Gli esperti di sicurezza informatica, intervistati da InfoQ e Medianama, sottolineano che la potenza del sistema impone nuovi standard di trasparenza. Ogni Skill può contenere porzioni di codice o collegarsi a risorse esterne, e questo aumenta il rischio di vulnerabilità. Per evitare abusi, Anthropic ha introdotto un sistema di audit interno che controlla l’origine dei moduli e segnala comportamenti anomali.
La filosofia dietro le Skills rappresenta un cambio culturale. Finora i modelli di AI si dividevano tra generalisti, ampi ma imprecisi, e specializzati, precisi ma rigidi. Con questo approccio la distinzione scompare. L’intelligenza artificiale diventa un ambiente dinamico che si adatta al bisogno, mantenendo il controllo umano come architrave etico.
La mossa di Anthropic conferma che la sfida dell’intelligenza artificiale non è più costruire modelli sempre più grandi, ma renderli utili, sicuri e integrabili nella vita reale. Le Skills non fanno di Claude un sistema onnisciente, ma un alleato flessibile. In questo senso rappresentano il passo più concreto verso un’AI che non sostituisce l’uomo, ma lo accompagna.