Strategic Hamlet: il dilemma oscuro a doppio livello dell’intelligenza artificiale

Data:

Potrebbe essere una scena di Apocalypse Now,il capolavoro di Francis Ford Coppola.Rappresentazione cinematografica della Guerra del Vietnam.

Invece è tutta un’altra questione,che però ha qualcosa in comune con la famosa guerra indocinese.Qualcosa che non immagineresti mai.Una situazione altamente  paradossale,che sembra uscita più dalla penna di uno stratega militare che da quella di uno sceneggiatore di Hollywood.

Strategic Hamlet era un piano delle forze armate americane in Vietnam.Riguardava la gestione e la protezione dei villaggi agricoli dai Vietcong.

Hamlet,in inglese, è il nome del famoso personaggio di Shakespeare,ma,nello slang,è usato anche come sinonimo di “dilemma”.Un doppio senso dunque.”Dilemma Strategico” si può chiamare.

Adesso fermiamo la scena di questo ipotetico Apocalypse Now.Facciamo un salto nel mondo di oggi.Quello della Intelligenza Artificiale (AI).Anche qui troviamo un drammatico “Strategic Hamlet”.Cioè una situazione paradossale,che porta ad un

pericoloso blocco comportamentale.Ma perché pericoloso?Non siamo in guerra,non siamo in Vietnam e non abbiamo villaggi da proteggere dai Vietcong.O forse sì…

Perché non ci sono i guerriglieri vietnamiti in agguato,ma ci sono altri pericoli in arrivo,molto più grandi,addirittura mondiali  secondo tanti esperti:i pericoli della AI.

Non passa giorno senza che numerose grandi autorità mondiali imprenditori,scienziati,addirittura vincitori del Premio Nobel ,come Geoffrey Hinton–non avvertano dei pericoli di questa tecnologia che,secondo loro,potrebbe portare addirittura all’estinzione del genere umano.

Altri tecnici e scienziati credono,invece,che la AI sarà la più grande invenzione dell’Uomo e che cambierà il corso della Storia,portando una specie di Eldorado sulla Terra.

“Essere o non essere” era il dilemma di Amleto.”Sviluppare o non sviluppare la AI” è il problema dei nostri tempi.Il nostro “Strategic Hamlet”,il nostro dilemma strategico.

E se gli apocalittici avessero ragione?

E se veramente apparisse una Super-AI enormemente più intelligente dell’Uomo,che diventasse ostile e cercasse di distruggere la nostra specie?

Questo si domandano i governi di tutto il mondo.Spaventati.Non sapendo che fare.E se blocchiamo lo sviluppo della AI,ma i nostri nemici continuano la ricerca e raggiungono la Super-AI e la usano contro di noi?

Ecco,questi sono i pensieri di tutti i governanti del Pianeta.

È questo il dilemma.No,non è vero.Non è solo questo il problema.La questione è reale,esiste,è molto grave e profonda,ma c’è molto di più.

C’è dell’altro ed è qualcosa di ancora più sconcertante e misterioso dell’aut aut citato.

È la sorgente dello Strategic Hamlet della AI.Il fattore da cui nascono tutti i potenziali e giganteschi vantaggi e pericoli di questa tecnologia:il meccanismo black box delle reti neurali che sono il motore della AI.Tutte le applicazioni fantascientifiche già realizzate o promesse e tutti i pericoli possibili nascono da qui:non sappiamo nulla di come la AI

interpreta i dati,sceglie soluzioni e obiettivi,agisce.

Ci sono molti enigmi inquietanti in questa storia e molto affascinanti:come fa una mente artificiale ad emergere da una rete neurale?

La rete neurale è un insieme di neuroni digitali che simulano strutture e funzioni dei neuroni umani.E pare che stiano simulando (o svolgendo realmente) queste funzioni anche troppo bene.

Dunque,il secondo livello del dilemma,quello nascosto,la sorgente del problema è:che cosa è questa “mente artificiale” che appare nei neuroni sintetici della AI e da cui derivano tutti gli effetti,attuali e futuri,positivi e negativi?

Dalla risposta a questa domanda deriva tutto.Ma è una domanda senza risposta:

la rete neurale impedisce di osservare cosa accade al suo interno.Se si cerca di penetrarla,per indagarla,si blocca:niente più effetti straordinari.Meccanismo black box.Una scatola nera e buia come la notte.Se la apri e cerchi di capire cosa fa,non trovi niente.È lo stesso problema della mente umana.

Non sappiamo che cosa sia la mente umana,figuriamoci se possiamo capire come appare la mente artificiale…

Questo spaventa coloro che hanno paura della AI.Hanno paura di quello che non capiscono.

Questo problema fondamentale fu posto molto tempo fa dallo scienziato hippy Stewart Brand e portò alla creazione della sua Point Foundation,dedicata allo studio approfondito della AI e della natura della mente artificiale.A queste ricerche partecipò tutto il network di illustri studiosi del settore collegati a Brand:John Mc Carthy,Marvin Minsky,Raymond Kurzweil,Gregory Bateson e tantissime altre autorità di questo campo di studi.

Qui nacque la stretta collaborazione tra questo network controculturale ed il Governo Americano,fortemente impressionato da queste ricerche.Una collaborazione ancora operativa ed attivissima.Oggi,avendo la base tecnologica necessaria,si stanno concretizzando e confermando tutte quelle teorie.

Sì,d’accordo,ma come il network dello scienziato contestatore ha pensato di risolvere il problema?La soluzione è che “non c’è soluzione sicura”.Cosa verrà fuori dal black box della  futura,eventuale Super-AI,

non si sa.Altrimenti non sarebbe una scatola nera.

E intanto continua lo scontro tra sostenitori e nemici di questa tecnologia impressionante.

Strategic Hamlet continua.Come finirà questa nuova “Guerra del Vietnam”, combattuta non nelle foreste indocinesi ma dentro una scatola nera?Chi vincerà?

Stefano Battaglia, regista

Seguici

11,409FansMi Piace

Condividi post:

spot_imgspot_img

I più letti

Potrebbero piacerti
Correlati

“Il sindaco del rione Sanità”. Ieri, oggi, domani: eterno Eduardo

Roma, Teatro Argentina, dal 17 al 29 aprile 2018 Innanzi...

Ostia accoglie il maestro iconico del violino Uto Ughi

  Indubbiamente uno dei più importanti violinisti di fama mondiale,...

Dentro una gabbia il Lungo viaggio verso la notte di Lavia

  Quella descritta Eugene O’Neill ne Lungo viaggio verso la...

In centotrenta sotto le mura per Ennio Morricone

Martedì 1 settembre alle 21.00 sotto le mura di...