Table of Contents Table of Contents
Previous Page  3 / 36 Next Page
Information
Show Menu
Previous Page 3 / 36 Next Page
Page Background

EON

EWS

n

.

617

-

MARZO

2018

3

T

ERZA

P

AGINA

di un’armata di macchine

senzienti, secondo gli esperti

i reali rischi dell’AGI possono

concretizzarsi in due scenari.

Nel primo, un’intelligenza arti-

ficiale può arrivare a compie-

re atti di devastazione perché

surrettiziamente istruita a fare

ciò da malinten-

zionati (ad esem-

pio terroristi che

riescano a pren-

dere il controllo di

sistemi autonomi

di armamento). Il

secondo scenario

contempla inve-

ce la possibilità

che un sistema di

intelligenza artifi-

ciale dotato di un

obbiettivo espres-

samente benefico

scelga di perse-

guirlo senza cu-

rarsi di eventuali

effetti collaterali

devastanti. In en-

trambi i casi, un

eventuale tentati-

vo umano di cor-

reggere l’AI verrebbe inter-

pretato come una minaccia

e, nella migliore delle ipotesi,

L

’Intelligenza Artificiale (AI)

vanta oggi numerosi campi

di applicazione che spaziano

dall’informatica alla robotica,

dalla gestione della sicurezza

alla medicina, dal controllo di

veicoli autonomi alla gestione

del traffico aero, e si spinge

anche nei settori finanziario

e militare. Quella che viene

impiegata oggi è una forma di

intelligenza artificiale che gli

addetti ai lavori chiamano AI

‘debole’ o ‘ristretta’, in quan-

to limitata allo svolgimento di

compiti circoscritti,

come il riconosci-

mento

facciale,

l’interpretazione

del linguaggio o

la previsione delle

abitudini di acqui-

sto della clientela.

L’obbiettivo di mol-

ti ricercatori è tut-

tavia arrivare nel

prossimo futuro a

una forma ‘forte’, o

‘generale’, di intel-

ligenza artificiale

(AGI, Artificial Ge-

neral Intelligence)

che finirebbe con

il surclassare gli

umani in ogni tipo

di attività cognitiva.

Mettendo da parte

l’aspetto sensa-

zionalistico e fantascientifico

di una potenziale estinzione

della razza umana per mano

sarebbe ignorato. Per quan-

to lontana nel futuro possa

essere la realizzazione di

un’AGI, gli esperti del settore

concordano sull’imperatività

di discutere proattivamente

delle problematiche associa-

te, perchè un atteggiamento

reattivo sarebbe necessaria-

mente tardivo e destinato al

fallimento. I rischi dell’AI in-

teressano però anche la sua

attuale forma ‘debole’: con

sempre più decisioni delega-

te a sistemi la cui intelligenza

viene plasmata con l’analisi

automatizzata di enormi moli

di dati, c’è il pericolo che il

processo decisionale stes-

so diventi imperscrutabile e

produca risultati la cui corret-

tezza non sia più verificabile

dagli operatori umani. Se le

informazioni impiegate per

istruire l’intelligenza artificiale

sono viziate, i risultati prodotti

possono essere completa-

mente errati. Ad esempio, un

sistema di diagnostica me-

dica potrebbe richiedere la

dimissione di pazienti in peri-

colo di vita perché nei dati uti-

lizzati per addestrarlo al rico-

noscimento preventivo di una

patologia erano stati esclusi

quelli di pazienti già ricoverati

con effetti conclamati. I peri-

coli non cessano anche quan-

do l’AI funziona nella maniera

prevista: in un dettagliato stu-

dio dal titolo “The Malicious

Use of Artificial Intelligence:

Forecasting, Prevention, and

Mitigation”

recentemente

pubblicato da un gruppo di

esperti del settore, vengono

delineati numerosi scenari

nei quali i sistemi di intelligen-

za artificiale possono essere

impiegati per arrecare danno.

Il documento, che vede tra

gli altri i contributi di

OpenAI

e di

Electronic Frontier

Foundation

, illustra le po-

tenzialità di abuso della tec-

nologia attuale o sviluppabile

entro un massimo di cinque

anni in tre grandi ambiti: digi-

tale, fisico e politico. Dall’au-

tomatizzazione di hacking e

phishing su grande scala al

dirottamento di missili telegui-

dati, passando per la manipo-

lazione dell’opinione pubblica

attraverso fake news e falsi

videomontaggi, le potenziali-

tà malevole dell’AI sono tanto

numerose quanto concrete.

Secondo gli autori dello stu-

dio, gli sviluppatori di sistemi

AI devono fare di più per an-

ticipare un impiego crimina-

le della propria tecnologia,

mentre governi e istituzioni

devono varare con estrema

tempestività nuove leggi per

regolamentare il settore.

Imperscrutabilità dei processi decisionali e impiego

da parte di malintenzionati sono due dei pericoli

attuali e concreti dell’intelligenza artificiale

M

ASSIMO

G

IUSSANI

Il lato oscuro

dell’AI