Quando si parla di intelligenza artificiale in azienda, il confronto quasi inevitabile è con automazione, efficienza, potenziamento del lavoro umano, ma da qualche settimana sta guadagnando attenzione un nuovo termine: “workslop”. I ricercatori dello Stanford Social Media Lab e di BetterUp Labs hanno definito il fenomeno come «contenuti di lavoro generati da AI che sembrano lavoro fatto, ma che mancano della sostanza necessaria per avanzare in modo significativo un compito».
Le slide, i report, le e-mail o i documenti che appaiono completi, a ben guardare si scopre che non dicono molto, che contengono imprecisioni, mancanza di contestualizzazione o che richiedono a qualcun altro di rifarli. Secondo lo studio, circa il 40% dei lavoratori d’ufficio negli Stati Uniti ha ricevuto nel mese precedente un output che rientrava in questa categoria.
Il tempo stimato a correggere o chiarire quel tipo di lavoro può superare quello che ci sarebbe voluto per farlo da zero. Questo genera l' effetto paradossale che proprio l’AI che avrebbe dovuto alleggerire il carico finisce per generarne uno nuovo.
L’innovazione che promette di liberare tempo e risorse, ma si scontra con la realtà di contenuti che “sembrano” ma non “sono”.
Ci sono alcuni fattori che contribuiscono a generare workslop: la mancanza di strategia aziendale sull’uso dell’AI, la formazione insufficiente, la pressione a “fare presto” piuttosto che “fare bene”. Quando si incoraggia l’uso dell’AI senza chiarire fini, processi e responsabilità, si spalanca la porta al lavoro superficiale.
E per gli ambienti manageriali e di leadership sorge una questione spinosa: l’AI non è magicamente efficiente se manca il contesto e il controllo umano. Le aziende che hanno preso sul serio il fenomeno spiegano che occorre definire quando l’AI ha senso, quali mansioni richiedono supervisione, e quali no.
Vale per chi scrive report e slide, per chi sviluppa codice, per chi prepara presentazioni: il rischio è che una cultura del “vai con l’AI e vediamo cosa esce” generi più lavoro inutile che valore aggiunto. E, nel lungo termine, possa corrodere la fiducia nei colleghi e nei processi.
Insomma: il futuro non si costruisce solo “aggiungendo AI” ma definendo come usarla, per cosa, e con quale cura. Perché se non si stabiliscono standard, processi e responsabilità chiare, l’effetto collaterale dell’intelligenza artificiale non sarà solo una curiosità linguistica ma un problema operativo concreto.