Con la rivoluzione dell’Intelligenza Artificiale ci cominciamo a porre delle domande, principalmente riguardanti quanto una macchina possa effettivamente avvicinarsi al genuino “pensare” e al “fare” umano e comportarsi di conseguenza. Oggi, in particolare, affronteremo il tema dei sistemi di sicurezza di rete, di come il Machine Learning possa agire nel campo e se lo stesso sia più un aiuto che un ostacolo, in primo luogo.
Prima di tutto, di che attacchi stiamo parlando?
Cominciamo affermando che le maggiori minacce in rete sono a fini di lucro, sia per un guadagno pubblicitario tramite spam, sia per veri e propri sabotaggi di servizi; prendendo in esame il secondo caso, molto più pericoloso e difficile da gestire, il Distributed Denial of Service che citavo poc’anzi è un sistema che trasmette a un numero enorme di utenti la richiesta di accedere a un determinato server, fino a bloccarlo per un superamento della soglia di richieste consentite.
All’inizio potrà sembrare solo un fastidio, ma questo è un evento particolarmente compromettente quando si parla di servizi finanziari e amministrativi online. Se un tempo questi attacchi potevano essere facilmente rintracciati, perché provenienti da fonti sospette e si manifestavano con una certa sistematicità, gli autori degli stessi stanno da tempo sfruttando i dati personali degli utenti del web per poter da una parte facilitare la diffusione dei virus, dall’altra rendere più difficile il riconoscimento di comportamenti sospetti da parte dei sistemi di sicurezza.
L’articolo sottolinea inoltre quanto l’andamento delle minacce sia indipendente (fino a un certo punto) dalla stratificazione e varietà dei sistemi di sicurezza disponibili, proprio per l’oggettiva difficoltà di individuazione della minaccia stessa. Ed è proprio qui che entra in gioco il nostro caro Machine Learning.
Forze e debolezze del Machine Learning
Di certo è affascinante il concetto di un computer che, attraverso un sistema di reti neurali, impara a svolgere determinate azioni autonomamente, letteralmente “imparando dagli sbagli”; uno dei miei esempi preferiti è Mar I/O, ovvero un programma in grado di completare un livello di Super Mario World partendo da zero conoscenze sulle dinamiche del gioco, attraverso diversi tentativi.
In generale, le reti neurali lavorano a strati, analizzando prima il contesto generale in input, individuando la relazione tra gli elementi del sistema e agendo con un’azione specifica quando vengono sottoposte a una determinata combinazione di stimoli, trasversale agli strati in questione. Gli input variano a seconda del contesto: Mar I/O ha semplicemente il livello circostante, ma la stessa Google, ad esempio, può vantare di un database incredibilmente grande di oggetti di ricerca online, ma anche di dati personali, tendenze ed elementi linguistico/culturali.
Nell’ambito della sicurezza, l’Intelligenza Artificiale, in confronto a noi comuni mortali, non si stanca mai ed è in grado di mantenere un costante livello di attenzione e una memoria molto più a lungo termine. Finché una macchina “ragiona a 0 e 1”, tuttavia, tende sempre a restituire output semplicistici e difficili da interpretare da parte dell’utente, nel nostro caso il team che sviluppa il sistema di sicurezza; il programma può indicarci una minaccia, ma non ci spiegherà il come o il perché della sua ricerca per giungere a tale conclusione. Secondo Straniero, l’Intelligenza Artificiale, in questo stato, arriva addirittura a rallentare il processo di protezione, perché ci fornisce una marea di dati che poi andrebbero comunque filtrati da un personale con una preparazione meno flessibile di quanto richiesto dalla situazione.
Le soluzioni
Sebbene il tutto possa sembrare irrimediabile, il manager di Arbor ci rassicura che si stanno prendendo dei provvedimenti. Nelle maggiori conferenze sul tema svoltesi quest’anno, come l’RSA e Cisco Live, gli esperti si sono dimostrati consapevoli allo stesso modo della situazione, e hanno espresso l’intenzione di muoversi su due fronti: uno a breve termine, attraverso l’intervento di un personale addetto all’interpretazione e alla “reale visibilità” delle minacce; uno a lungo termine, che conti sullo sviluppo di sistemi di Intelligenza Artificiale in grado di interfacciarsi meglio con l’utente che ne usufruisce.