EON
EWS
n
.
617
-
MARZO
2018
3
T
ERZA
P
AGINA
di un’armata di macchine
senzienti, secondo gli esperti
i reali rischi dell’AGI possono
concretizzarsi in due scenari.
Nel primo, un’intelligenza arti-
ficiale può arrivare a compie-
re atti di devastazione perché
surrettiziamente istruita a fare
ciò da malinten-
zionati (ad esem-
pio terroristi che
riescano a pren-
dere il controllo di
sistemi autonomi
di armamento). Il
secondo scenario
contempla inve-
ce la possibilità
che un sistema di
intelligenza artifi-
ciale dotato di un
obbiettivo espres-
samente benefico
scelga di perse-
guirlo senza cu-
rarsi di eventuali
effetti collaterali
devastanti. In en-
trambi i casi, un
eventuale tentati-
vo umano di cor-
reggere l’AI verrebbe inter-
pretato come una minaccia
e, nella migliore delle ipotesi,
L
’Intelligenza Artificiale (AI)
vanta oggi numerosi campi
di applicazione che spaziano
dall’informatica alla robotica,
dalla gestione della sicurezza
alla medicina, dal controllo di
veicoli autonomi alla gestione
del traffico aero, e si spinge
anche nei settori finanziario
e militare. Quella che viene
impiegata oggi è una forma di
intelligenza artificiale che gli
addetti ai lavori chiamano AI
‘debole’ o ‘ristretta’, in quan-
to limitata allo svolgimento di
compiti circoscritti,
come il riconosci-
mento
facciale,
l’interpretazione
del linguaggio o
la previsione delle
abitudini di acqui-
sto della clientela.
L’obbiettivo di mol-
ti ricercatori è tut-
tavia arrivare nel
prossimo futuro a
una forma ‘forte’, o
‘generale’, di intel-
ligenza artificiale
(AGI, Artificial Ge-
neral Intelligence)
che finirebbe con
il surclassare gli
umani in ogni tipo
di attività cognitiva.
Mettendo da parte
l’aspetto sensa-
zionalistico e fantascientifico
di una potenziale estinzione
della razza umana per mano
sarebbe ignorato. Per quan-
to lontana nel futuro possa
essere la realizzazione di
un’AGI, gli esperti del settore
concordano sull’imperatività
di discutere proattivamente
delle problematiche associa-
te, perchè un atteggiamento
reattivo sarebbe necessaria-
mente tardivo e destinato al
fallimento. I rischi dell’AI in-
teressano però anche la sua
attuale forma ‘debole’: con
sempre più decisioni delega-
te a sistemi la cui intelligenza
viene plasmata con l’analisi
automatizzata di enormi moli
di dati, c’è il pericolo che il
processo decisionale stes-
so diventi imperscrutabile e
produca risultati la cui corret-
tezza non sia più verificabile
dagli operatori umani. Se le
informazioni impiegate per
istruire l’intelligenza artificiale
sono viziate, i risultati prodotti
possono essere completa-
mente errati. Ad esempio, un
sistema di diagnostica me-
dica potrebbe richiedere la
dimissione di pazienti in peri-
colo di vita perché nei dati uti-
lizzati per addestrarlo al rico-
noscimento preventivo di una
patologia erano stati esclusi
quelli di pazienti già ricoverati
con effetti conclamati. I peri-
coli non cessano anche quan-
do l’AI funziona nella maniera
prevista: in un dettagliato stu-
dio dal titolo “The Malicious
Use of Artificial Intelligence:
Forecasting, Prevention, and
Mitigation”
recentemente
pubblicato da un gruppo di
esperti del settore, vengono
delineati numerosi scenari
nei quali i sistemi di intelligen-
za artificiale possono essere
impiegati per arrecare danno.
Il documento, che vede tra
gli altri i contributi di
OpenAI
e di
Electronic Frontier
Foundation
, illustra le po-
tenzialità di abuso della tec-
nologia attuale o sviluppabile
entro un massimo di cinque
anni in tre grandi ambiti: digi-
tale, fisico e politico. Dall’au-
tomatizzazione di hacking e
phishing su grande scala al
dirottamento di missili telegui-
dati, passando per la manipo-
lazione dell’opinione pubblica
attraverso fake news e falsi
videomontaggi, le potenziali-
tà malevole dell’AI sono tanto
numerose quanto concrete.
Secondo gli autori dello stu-
dio, gli sviluppatori di sistemi
AI devono fare di più per an-
ticipare un impiego crimina-
le della propria tecnologia,
mentre governi e istituzioni
devono varare con estrema
tempestività nuove leggi per
regolamentare il settore.
Imperscrutabilità dei processi decisionali e impiego
da parte di malintenzionati sono due dei pericoli
attuali e concreti dell’intelligenza artificiale
M
ASSIMO
G
IUSSANI
Il lato oscuro
dell’AI