FOCUS: per 70% imprese AI è principale rischio per sicurezza dati (report Thales)

ROMA (MF-NW)--Il 70% delle imprese indica l'intelligenza artificiale come il principale rischio per la protezione dei dati. La preoccupazione non riguarda solo l'uso malevolo dell'AI, ma anche il livello di accesso che viene concesso che evolve da semplice strumento operativo a vero e proprio "insider" digitale. E' quanto emerge dal Thales 2026 Data Threat Report, che sottolinea come le aziende dei settori automotive, energia, finanza e retail riconoscono nella velocità della trasformazione guidata dall'AI la sfida di sicurezza più pressante.

Man mano che le imprese integrano l'intelligenza artificiale nei flussi di lavoro, nelle analisi, nel servizio clienti e nelle pipeline di sviluppo, a questi sistemi viene concesso un accesso ampio e automatizzato ai dati aziendali, spesso con controlli meno rigorosi rispetto a quelli applicati agli utenti umani. "Il rischio insider non riguarda più solo le persone. Oggi coinvolge anche sistemi automatizzati ai quali ci si è affidati troppo in fretta", afferma Sebastien Cano, senior vice president, Cybersecurity Products di Thales. "Quando la governance delle identità, le politiche di accesso o la crittografia sono deboli, l'AI può amplificare queste vulnerabilità all'interno degli ambienti aziendali molto più rapidamente di qualsiasi essere umano".

PREOCCUPA DIVARIO TRA ADOZIONE AI E CONTROLLO DATI

Il report evidenzia un preoccupante divario tra l'adozione dell'AI e il controllo sui dati. Solo il 34% delle aziende sa dove risiedono tutti i propri dati, indipendentemente dal livello di criticità, e appena il 39% è in grado di classificarli completamente. Nel frattempo, quasi la metà (47%) dei dati sensibili nel cloud rimane non crittografata. Man mano che i sistemi di AI acquisiscono e utilizzano dati attraverso ambienti cloud e SaaS, la visibilità limitata rende sempre più difficile applicare il principio del least privilege, ovvero concedere solo i diritti di accesso strettamente necessari. Questo aumenta l'esposizione in caso di compromissione delle credenziali.

AI STA POTENZIANDO ATTACCHI SEMPRE PIÙ CONVINCENTI

Mentre le aziende corrono per adottare l'AI, gli aggressori stanno facendo lo stesso. Quasi il 60% delle società riferisce di aver subito attacchi basati su deepfake e il 48% riporta danni d'immagine legati a campagne di disinformazione o di furto d'identità generate dall'AI. Poiché l'AI introduce nuovi rischi, essa amplifica anche quelli esistenti. L'errore umano contribuisce già al 28% delle violazioni e, con l'aggiunta dell'automazione, i piccoli errori possono aumentare più velocemente e diffondersi più ampiamente.

INVESTIMENTI SU SICUREZZA STANNO CAMBIANDO, MA NON AL PASSO CON RISCHI

Sebbene le aziende riconoscano la necessità di adattarsi, gli investimenti non tengono il passo con la rapida espansione dell'automazione e degli accessi basati sull'AI. Il 30% delle aziende dedica oggi budget specifici alla sicurezza dell'intelligenza artificiale, riflettendo una crescente consapevolezza. Tuttavia, la maggioranza (53%) dipende ancora da programmi di sicurezza tradizionali, concepiti principalmente per utenti umani e controlli basati sul "perimetro". Poiché le macchine autenticano, accedono e agiscono in modo sempre più autonomo, molte strategie di sicurezza devono ancora adeguarsi a questo cambiamento nei modelli operativi.

FIDUCIA DEVE EVOLVERE MAN MANO CHE MACCHINE OTTENGONO ACCESSO AI DATI

L'intelligenza artificiale non sta sostituendo le minacce tradizionali, bensì le sta intensificando aumentandone velocità, portata e raggio d'azione. Poiché i sistemi automatizzati ottengono un accesso sempre più ampio ai dati aziendali, le imprese devono ripensare l'identità, la crittografia e la visibilità dei dati come elementi infrastrutturali fondamentali. Le realtà aziendali che integreranno una solida governance nelle proprie strategie di AI saranno in una posizione migliore per innovare in sicurezza, ed evitare che l'intelligenza artificiale diventi la loro nuova "minaccia interna".

liv

MF NEWSWIRES (redazione@mfnewswires.it)

2612:34 feb 2026