[Mostly Weekly ~36]

AI, DL, ML e altre induzioni


La newsletter omonima a margine del canale Telegram (opens new window) (quella che esce quando è pronta)

A cura di Antonio Dini Numero 36 ~ 10 novembre 2019


It is a truism that artificial intelligence research can never become successful, because its successes are not viewed as AI
– Aaron Hertzman


In questo numero:

  • Head
  • Body
  • Vim Corner
  • Tsundoku Regular
  • Tsundoku Poetry Room

Start Here ~ Foto © Antonio Dini
Start Here ~ Foto © Antonio Dini

Questa settimana è stata piuttosto densa di impegni lavorativi e famigliari. Mostly Weekly è più breve e orientata alle AI.


HEAD

I valori degli altri e quelli delle AI Una sera, durante una cena di lavoro negli Stati Uniti con alcuni colleghi giornalisti provenienti da tutto il mondo, uscì fuori un termine che non conoscevo: moral crumple zone (opens new window). È il concetto elaborato dalla ricercatrice Madeleine Clare Elish per descrivere come, in sistemi semi-automatizzati, la responsabilità morale e legale tenda a concentrarsi sull'elemento umano, anche quando la causa effettiva dell'errore è il sistema automatizzato.

Adesso una indagine ha portato alla luce nuovi elementi relativi (opens new window) alla prima morte di cui ci sia documentazione dovuta a un incidente con un'auto a guida autonoma: il caso di Elaine Herzberg, investita e uccisa da un'auto Uber nel marzo 2018 a Tempe, in Arizona.

Ci sono ancora delle udienze in corso, ci si chiede se in casi come questi ci sia una responsabilità di chi crea il software, Uber (e altri) intanto vanno avanti con le sperimentazioni.

Tuttavia, a ben guardare, questo è un caso in negativo di inserimento di valori umani nelle AI. Perché addestrando delle AI si fanno scelte di valori e scelte etiche, soprattutto quando le attività automatizzate hanno un impatto sulla vita delle persone.

Provate a immaginare un funzionario di banca che deve autorizzare l'erogazione di un mutuo e utilizza una AI come sistema di supporto per valutare la solvibilità del cliente. Immaginate che la AI processi anche variabili come il codice di avviamento postale del richiedente. Immaginate che in determinate zone ci siano storicamente dei tassi di insolvenza più alti. Immaginate che quelle zone siano anche correlate con determinate caratteristiche demografiche (reddito, etnia).

Adesso intravedete il problema? Il punto non è più di etica dei massimi sistemi, tipo: se l'auto a guida autonoma deve scegliere se investire il pedone o far schiantare il passeggero, cosa deve fare? Il punto è molto più vicino e molto più quotidiano: chi ha deciso che quella variabile dovesse essere inclusa nel modello? Chi ha deciso i pesi? E soprattutto: chi è responsabile delle conseguenze di quelle scelte?


~~~


BODY

Riconoscere le intenzioni Non c'è bisogno di predire il futuro, basta leggere la mente delle persone per poterne capire le intenzioni. E per riconoscere le intenzioni delle persone senza essere degli scrittori di fantascienza, si comincia a fare sul serio. In Cina, secondo questo articolo del South China Morning Post (opens new window), ci sono ricercatori che stanno sviluppando dei sistemi per riconoscere le emozioni delle persone attraverso la loro espressione facciale e il linguaggio del corpo.

Diamo per scontato che entrare nella testa della gente è il sogno di qualsiasi governante, non solo dei despota: qualunque politico occidentale vorrebbe avere uno strumento del genere. In Cina, però, il contesto è diverso.

Con un sistema di intelligenza artificiale capace di leggere le emozioni delle persone si possono poi capire le loro intenzioni e alla lunga predire i comportamenti, criminogeni e non. Tutte le aziende cinesi che partecipano a questo tipo di ricerca sanno che a un certo punto dovranno condividere i risultati con il governo.

Secondo la maggior parte degli esperti un sistema del genere è molto complesso, praticamente non funziona e non c'è garanzia che un giorno riesca. Forse è impossibile. Tutti, da Microsoft a Google, ci stanno lavorando. E già il tentativo rivela molto sui valori di chi lo fa.

La Cina ha una strategia di sviluppo di questi sistemi che è complessa e non completamente orwelliana nella sua rappresentazione (cioè, meno distopica di quanto in realtà non sia nella pratica). Ma il punto è che ci stanno lavorando con risorse e determinazione, e che i risultati intermedi vengono già utilizzati.


~~~


VIM CORNER

Tutorials e guide per AI, DP e ML È arrivato il momento di lasciare i vostri studi sui big data? La statistica non è più la scienza sexy (opens new window) di una volta? Bene: questa raccolta di tutorial e guide (opens new window) per imparare AI, Deep Learning e Machine Learning è un ottimo punto di partenza, con risorse per tutti i livelli.


Through the window ~ Foto © Antonio Dini
Through the window ~ Foto © Antonio Dini

TSUNDOKU REGULAR Perché, quando si comprano libri e non si leggono ma si accumulano e basta, c'è una parola (giapponese) per dirlo

In questi giorni mi sono capitati fra le mani:

  • Io Robot (opens new window) di Isaac Asimov, questa è la raccolta dei racconti degli anni Quaranta del "buon dottore" nei quali emergono per la prima volta le famose Tre Leggi della Robotica. Un classico che è anche un punto di riferimento obbligato per chiunque si occupi di etica delle AI oggi.
  • Il ciclo di vita degli oggetti software (opens new window) di Ted Chiang (qui la mia recensione (opens new window)): un racconto lungo (quasi un romanzo breve) dello scrittore americano di fantascienza. Il titolo originale è The Lifecycle of Software Objects. È del 2010, ma sembra scritto ieri. Anzi, sembra scritto domani.
  • Westworld (opens new window) di Michael Crichton, che è un autore che mi piace molto. Nel 1973 ha scritto e diretto un film (da noi tradotto come Il mondo dei robot) che è il punto di partenza della celebre serie HBO. Il romanzo è in realtà la sceneggiatura originale, interessante da leggere in parallelo con la serie.

TSUNDOKU POETRY ROOM In attesa del ritorno del nostro poet-in-residence Roberto R. Corsi (@rrcorsi), questa settimana siamo AI-oriented anche qui

  • Acrostico di computer (opens new window) è stata generata automaticamente su AcrosticosOrg che spiega: «Un acrostico è una composizione poetica in cui le lettere iniziali di ogni verso, lette verticalmente, formano una parola o una frase». Vale come esperimento di poetry automation, non come poesia.

I link non hanno alcuna affiliazione, puntano solo all'oggetto culturale citato.


::END::

Ti è piaciuta? Inoltrala a chi potrebbe essere interessato. Se l'hai ricevuta, qui puoi iscriverti Se vuoi cancellarti (subito, rapidamente e per sempre) il collegamento invece è più sotto. Se vuoi mandarmi dei suggerimenti, basta rispondere alla email. Qui invece c'è l'archivio dei numeri passati Buona domenica!