March 18, 2019

[Mostly #2 - Mostly Weekly]

Mostly Weekly #2

La newsletter omonima a margine del canale Telegram.
(quella che esce quando è pronta)

A cura di Antonio Dini
Numero 2 ~ 18 marzo 2019 

Un po' di housekeeping: alcuni lettori mi hanno detto di aver trovato Mostly nella loro cartella spam. Ci sono un paio di cose che potete fare per rendere meno probabile che questo accada: aggiungere <mostlyiwrite@gmail.com> alla vostra lista di contatti e, se nonostante questo Mostly finisce ancora nella vostra cartella spam, assicuratevi di non spostarla semplicemente nella casella principale della posta, ma anche di segnalarla come "non spam" nel caso in cui il vostro client abbia questa funzione (Gmail ce l'ha). Tutto questo succede in parte perché <mostlyiwrite@gmail.com> è un indirizzo nuovo, creato apposta per la newsletter e non ha una reputazione online da offrire in pasto ai filtri che valutano lo spam; con un piccolo sforzo da parte vostra permetterete a Mostly di farsi la sua reputazione positiva e di evitare in futuro di finire nello spam. Piccole newsletter crescono.
Grazie.
 

 

IN QUESTO NUMERO

  • Negligenza
    • ​intro (non breve)
    • il paper di ricerca
    • la digressione (breve)
    • il nocciolo della vicenda
  • Limerick
  • Tsundoku

(© Foto A. Dini)
 

NEGLIGENZA

Non breve introduzione al punto sulla negligenza a cui voglio arrivare.
C'è un termine, cognitive computing, che da un po' di tempo rimbalza da tutte le parti (assieme ad edge computing e a quantum computing). Wikipedia definisce il cognitive computing come: 

[a] new hardware and/or software that mimics the functioning of the human brain [...] and helps to improve human decision-making 

Detto in altro modo, è una piattaforma tecnologica sopra la quale, tra le altre cose, stanno: 

machine learning, reasoning, natural language processing, speech recognition and vision (object recognition), human–computer interaction, dialog and narrative generation. 

Insomma, di tutto di più, basta che sia intelligenza artificiale. A mio avviso, rischia di essere un modo fuorviante in più per vedere le AI e capire i problemi che sollevano, se prima non si chiariscono altre cose. 

Il tema AI è sempre più di frequente un "oggetto tecnologico non identificato" onnipresente nel nostro quotidiano. Si cerca di trasformarlo in una parola al singolare (cognitive computer, come ultima frontiera) ma la realtà è una idea più complessa e fatta di molte cose pensate per scopi diversi. La semplificazione fa parte di un processo naturale di addomesticamento delle nuove tecnologie, ma adesso viene forzata in maniera eccessiva.

Il processo naturale funziona più o meno così: man mano che la società identifica particolari casi e applicazioni, questi vengono "staccati" dal blob non meglio identificato (la parola-minestrone che le contiene tutte) e trasferiti nel quotidiano, chiamandoli con altri nomi: lavatrice smart, riconoscimento automatico del volto, Siri, filtro antispam smart, etc. 

Questo sul versante del consumo. Sul versante opposto di chi produce, invece, succedono altre cose altrettanto rilevanti, sia da un punto di vista politico che economico. In ordine sparso, le ultime che ho visto. 

La Cina sta diventando un soggetto sempre più importante nella ricerca sulle AI. Un ottimo indicatore è il numero di paper di ricerca cinesi "buoni", che cresce sempre di più

Il mensile dell'Economist, 1843, racconta la storia di DeepMind e dei percorsi e vicoli ciechi che ha incontrato, fino ai successi che hanno ricevuto molta attenzione poco tempo fa 

DeepMind’s work culminated in 2016 when a team built an AI program that used reinforcement learning alongside other techniques to play Go. The program, called AlphaGo, caused astonishment when it beat the world champion in a five-game match in Seoul in 2016. The machine’s victory, watched by 280m people, came a decade earlier than experts had predicted. The following year an improved version of AlphaGo thrashed the Chinese Go champion. 

Vogue Business racconta di come i negozi fisici "si facciano furbi" utilizzando l'intelligenza artificiale per migliorare la relazione e la vendita (tipo: riconoscere la soddisfazione dei clienti che escono analizzando automaticamente l'espressione del loro volto). 

Due persone superbig dell'intellighenzia digitale planetaria, cioè Joi Ito e Jonathan Zittrain, quest'anno per la terza volta faranno un corso di etica delle AI (Applied Ethical and Governance Challenges in Artificial Intelligence) a una classe composta di studenti per metà di Harvard e per metà del MIT. (Le tecno-élite - come tutte le élite - sono sempre autocelebrative, compiacenti e condiscendenti verso se stesse quando si muovono in ambienti più riparati). 


Insomma, premessa lunga per dire che c'è un sacco sulle AI e che ne stiamo perdendo il senso. 
Arriviamo così a quel che mi ha colpito leggendo un paper di ricerca. 

Il paper tratta il rapporto che esiste tra la negligenza e l'intelligenza artificiale. Per "negligenza" qui faccio riferimento al concetto giuridico, uno degli elementi psicologici della colpa generica. La negligenza vuol dire compiere una attività senza la dovuta attenzione ovvero quando viene omesso il compimento di un'azione doverosa. Attenzione, non è la stessa cosa della imprudenza (sventatezza e audacia) o della imperizia (mancanza di abilità e di esperienza). 

Il paper di cui sopra si intitola Negligence and AI's Human Users e tocca un tema secondo me fondamentale:

By inserting a layer of inscrutable, unintuitive, and statistically-derived code in between a human decision maker and the consequences of that decision, AI disrupts our typical understanding of responsibility for choices gone wrong

Da qui viene fuori un ragionamento molto interessante che è stato notato da Rachel Thomas (una che di intelligenza artificiale qualcosa ne sa) sulle AI come "assistenti decisionali" anziché come super-robot che si muovono in tutta autonomia. Quest'ultima invece è l'idea che monopolizza o quasi il ragionamento pubblico attorno a questi problemi.

Treating today’s AI as something with agency is not useful nor edifying, and hides fundamental differences with decision assistance AI. Decision assistance AI is rapidly expanding in employment, lending, retail, policing, agriculture, medicine, finance, & data security. 

E a chi le obietta che questo approccio è specifico del software e non, ad esempio, dei sistemi di sterzatura delle automobili, risponde: 

Please read the article before commenting. This is on the legal challenges of accountability & responsibility. If your car steering system malfunctioned, there is a well-established process for bringing a legal case against the manufacturer. Not so for AI decision assistance. 

Qual è la particolarità di una "Decision assistance AI"?

[...] autonomous robots are a narrow subset of AI technologies. More common is what I refer to as “decision-assistance” AI: technology that operates by making a recommendation to a user.

Volete un esempio? Andate in banca a chiedere il mutuo e ve lo vedete rifiutato. Perché? (avete diritto di saperlo). La decisione è di un funzionario, che ha potere di firma, ma è "il sistema" quello che ha elaborato la pratica automaticamente e che "non lo permette". Il trattamento dei vostri dati, cioè, è avvenuto in maniera che non può venirvi spiegata.

Insomma, c'è un altro problema da affrontare prima di cercare le risposte giuste. Ed è quello di capire se ci stiamo facendo le domande giuste. C'è infatti un tema di conoscibilità della cosa di cui stiamo parlando, che richiede aver capito un po' di passaggi. 
 

Breve digressione sulla differenza tra un software tradizionale per calcolare se si può erogare il mutuo e uno che invece lo fa usando le AI. 
A differenza del software tradizionale, che è basato su un approccio deduttivo (l'elaboratore esegue il programma che contiene le indicazioni su cosa fare per fornire disco verde all'erogazione del mutuo), buona parte delle AI sono basate su un approccio induttivo (l'elaboratore esegue un programma che ha appreso induttivamente da una serie di esempi il modo per raggiungere i risultati voluti dai programmatori: milioni di mutui erogati o no per addestrare la AI a dare disco verde o no alle varie pratiche che le vengono sottoposte). 

In questa seconda tipologia di software, la nostra capacità di comprendere il modo con il quale il software elabora il suo output ("prende le decisioni", cioè indicare al funzionario se il mutuo può essere erogato o no) è alquanto limitata. Non sappiamo come venga eseguito di preciso il trattamento dei dati.
Fine della breve digressione.

Quindi, spiega il paper, il tema della responsabilità diventa enorme, ad esempio per tutte quelle situazioni in cui le AI vengono utilizzate come assistenti nei processi decisionali. 

By inserting a layer of inscrutable, unintuitive, and statistically-derived code in between a human decisionmaker and the consequences of that decision, AI disrupts our typical understanding of responsibility for choices gone wrong 

E quindi, il paper si occupa proprio di questo: 

The Article argues that AI’s unique nature introduces four complications into negligence: 1) unforeseeability of specific errors that AI will make; 2) capacity limitations when humans interact with AI; 3) introducing AI-specific software vulnerabilities into decisions not previously mediated by software; and 4) distributional concerns based on AI’s statistical nature and potential for bias. 

Così, secondo me cominciamo a ragionare in maniera un po' più sensata e concreta. E si vedono dei problemi che finora erano stati completamente evitati da chi ha studiato la materia e da chi la racconta. Cioè: i differenti tipi di responsabilità delle persone che utilizzano le AI come strumento di aiuto decisionale. 

Tort scholars have mostly overlooked these challenges. This is understandable because they have been focused on autonomous robots, especially autonomous vehicles, which can easily kill, maim, or injure people. But this focus has neglected to consider the full range of what AI is. 

E qui casca l'asino della visione semplificatoria e semplificata per motivi prevalentemente commerciali e idiologici: 

Outside of robots, AI technologies are not autonomous. Rather, they are primarily decision-assistance tools that aim to improve on the inefficiency, arbitrariness, and bias of human decisions. By focusing on a technology that eliminates users, tort scholars have concerned themselves with product liability and innovation, and as a result, have missed the implications for negligence law, the governing regime when harm comes from users of AI. 

Il paper vale il vostro tempo, se volete approfondire il sottile confine tra diritto, società e tecnologia. Ah, è più lungo di quel che ho scritto io qui, ma non di tanto. :-)
 

(© Foto A. Dini)


LIMERICK

Al corso sui linguaggi contemporanei che tengo alla Civica scuola di cinema della Fondazione Milano i miei studenti stanno facendo un po' di esercizi. Ad esempio, scrivono dei limerick su soggetti contemporanei. 

 

La mia bella damigella persiana
s'è presa una bella mattana,
a sposar quel gentiluomo d'Albione
senza un soldo né un gallone
che crudele, la mia bella damigella persiana. 

**

Truce Don Toño affettava in Messico il pollo
scuro di sporco e di sangue era il suo dito satollo
eppure gentile era nei confronti della ragazzina
e di cioccolata le chiedeva una tazzina
il buon Don Toño messicano sino al midollo. 

**

Un vecchio funzionario di Orione
controllava dei pianeti la rotazione
una sera d'estate gli si bloccò il collo
e di tutti i pianeti perse il controllo
il disoccupato funzionario di Orione 

**

La soldatessa della guerra Persa
partì per il fronte, lo fece di corsa
il suo amante scuoteva forte la testa
non la scorgeva più, dal bordo della costa
non sapeva nuotare, la povera soldatessa della guerra Persa 


TSUNDOKU

Quando si comprano libri e non si leggono ma si accumulano e basta, c'è una parola (giapponese) per dirlo

In questi giorni mi sono capitati tra le mani: 

  • i numeri #693 (Monument Valley) e #694 (Spedizione nel deserto) di Zagor. Siamo a metà circa di una avventura piuttosto lunga di ZagorTeNay ambientata nel sud-ovest degli Stati Uniti (zona inconsueta per il personaggio creato da Sergio Bonelli). Sto rispolverando Zagor perché mi pare che sia, con Tex e Dragonero, un personaggio che sta crescendo di nuovo. C'è anche il reboot delle sue origini, altre pubblicazioni. Insomma, interessante.
  • Pesciolino, Lisa Brennan-Jobs, memoir della figlia naturale (poi riconosciuta) di Steve Jobs, padre crudele e distante, ma anche insolitamente intenso. Fece discutere qualche mese fa, è scritto molto bene e si legge ancora meglio, anche senza manie tecnologiche.
  • The Expanse stagioni 1-2-3. È su Amazon Prime. Avevo cominciato a guardare la prima stagione quando è uscita, tre anni e mezzo fa, e poi ho lasciato perdere. Di recente ho ricominciato e finito le prime tre. Amazon sta producendo la quarta stagione. La serie parte piano ma poi cresce e si amplia sempre più. A chi piace la fantascienza e lo spazio: un po' Battlestar Galactica (la miniserie del 2003 e successivi) un po' Star Trek Enterprise (quella dove sudano).


I link non hanno alcuna affiliazione, puntano solo all'oggetto culturale citato.
 

END

Ti è piaciuta? Inoltrala a chi potrebbe essere interessato.
Se l'hai ricevuta, qui puoi iscriverti
Se vuoi cancellarti (subito, rapidamente e per sempre) il collegamento invece è più sotto.
Se vuoi mandarmi dei suggerimenti, basta rispondere alla email.
L'archivio dei numeri passati

Avete ricevuto questa email in non so quanti, perché TinyLetter non ha un contatore automatico da aggiungere in fondo. Pazienza, ce ne faremo una ragione.mine