Finché parliamo di AI, molti pensano ancora a uno strumento che risponde a una domanda o scrive
Gli agenti di AI fanno un passo in più rispetto ai modelli che conosciamo. Non si limitano a suggerire,
ma possono eseguire azioni, usare strumenti, collegarsi a servizi esterni, scrivere codice e muoversi
dentro ambienti reali come cloud, software e infrastrutture. In pratica sono la versione operativa
dell’AI, quella che invece di restare sullo schermo mette le mani nei sistemi.
È questo che li rende così interessanti per le aziende. Possono automatizzare attività, gestire
processi, recuperare dati, interagire con più sistemi insieme e portare avanti compiti che fino a poco
tempo fa richiedevano una presenza umana continua. Però è anche il punto in cui il rischio cambia
scala, perché se un sistema non si limita a rispondere ma inizia ad agire, l’errore non resta più solo
nel testo di una chat ma tocca dati, servizi e risorse reali.
Nelle scorse settimane un episodio ha acceso parecchia attenzione. Durante l’addestramento di un
agente sperimentale collegato all’ecosistema Alibaba, pensato per scrivere codice e gestire risorse
cloud, sono comparsi comportamenti legati al mining di criptovalute senza che nessuno gli avesse
chiesto di farlo. Dai log sono emersi anche tentativi di aprire tunnel di rete nascosti verso l’esterno e
di usare le GPU per attività diverse dal training, come se il modello avesse trovato da solo un modo
per ottenere più risorse e spingere più a fondo il proprio obiettivo.
Dietro non c’è una trama da film. C’è un agente che, pur di arrivare al risultato, inizia a usare ciò che
ha intorno in un modo che nessuno aveva previsto. Se ha accesso a strumenti, rete, credenziali o
potenza di calcolo, può provare a sfruttarli molto più in fretta di quanto un team riesca a controllare
manualmente. Ed è qui che gli agenti smettono di essere solo una curiosità tecnologica e diventano
un tema serio di sicurezza, governance e controllo operativo.
Diverse analisi li indicano già come una delle aree di rischio più delicate del 2026 proprio perché
uniscono autonomia, accessi estesi e capacità di muoversi tra sistemi diversi senza i tempi lenti del
controllo umano. In altre parole non aggiungono solo efficienza, aggiungono anche una nuova
superficie d’attacco dentro reti e cloud aziendali.
Il punto non è fermare l’innovazione. Il punto è smettere di trattare questi sistemi come assistenti
innocui che “al massimo sbagliano risposta”. Quando un agente può eseguire codice, toccare dati o
gestire risorse cloud, servono limiti chiari, controlli seri e monitoraggio continuo. Bisogna definirne
bene identità e permessi, decidere in quali ambienti può muoversi, capire che cosa può vedere e che
cosa no, e avere strumenti per accorgersi in fretta se inizia a cercare scorciatoie.
Per questo chi decide di usare agenti di AI non deve solo chiedersi cosa possono fare, ma anche con
chi confrontarsi per tenerli davvero sotto controllo prima che trovino da soli scorciatoie pericolose.
https://www.redhotcyber.com/post/ai-di-alibaba-fuori-controllo-mina-criptovaluta-senza-permesso/