Macchina, comportati bene!

da | Apr 28, 2019

Al MIT Media Lab e al Max-Planck-Institut nasce un nuovo campo di ricerca: il machine behavior. Perché non possiamo interagire con le macchine se non comprendiamo il loro comportamento.

Si chiama machine behavior ed è la cosa più interdisciplinare che ci sia. Vi si uniscono intelligenza artificiale e informatica, ma anche biologia, psicologia, scienza comportamentale e socioeconomia. Tutto al servizio di un unico scopo: capire meglio in che modo le macchine interagiscono con gli esseri umani e quale impatto ciò potrà avere nello sviluppo della società.

È questo l’obiettivo del progetto denominato appunto Machine Behavior, nato in seno al gruppo Scalable Cooperation dell’MIT Media Lab sotto il coordinamento di Iyad Rahwan.

https://youtu.be/B-_X1CsvOHg

Le macchine potenziano la nostra capacità di cooperare, ossia di coordinare il lavoro fra esseri umani, scambiarci informazioni e prendere decisioni insieme. È tuttavia necessario controllare le loro azioni, per ottenerne dei benefici e minimizzare i potenziali danni. Per questo occorre comprendere meglio il comportamento dei sistemi di intelligenza artificiale. Cosa che si può fare solo adottando un approccio squisitamente interdisciplinare.

A Berlino come a Boston

E non c’è solo l’iniziativa del MIT Media Lab. Al Max-Planck-Institut für Bildungforshung di Berlino nasce il Center for Humans and Machines, diretto dallo stesso Rahwan. Anche in questo caso l’ambizione è di mettere in campo un paradigma di ricerca nuovo, per comprendere, anticipare e modellare le principali trasformazioni determinate da intelligenza artificiale, Web e social media rispetto al modo in cui pensiamo, apprendiamo, lavoriamo, giochiamo e governiamo la nostra vita.

Ma perché serve una nuova disciplina? Per rispondere a questa domanda, vale la pena di leggere l’articolo pubblicato sull’ultimo numero di “Nature” (568, pp. 477–486, 24 aprile 2019), intitolato a propria volta Machine behaviour (in questo caso la variante grafica della parola è con la u). Lo firmano ventitré studiosi di diverse università e istituti di ricerca, compresi quelli privati di Google, Facebook e Microsoft.

L’agency delle macchine

Sempre più spesso le macchine appaiono dotate di agency, ossia della capacità di agire in modo indipendente e di compiere delle scelte libere. Le macchine tendono ad assomigliare agli agenti sociali, i quali si confrontano con i limiti determinati dalla struttura della società – religione, gruppo etnico e classe di appartenenza, ambiente – e li superano, orientando in modo autonomo il proprio comportamento.

Come è facile intuire, il concetto di agency ha molte conseguenze non solo sul piano sociologico, ma anche su quello filosofico, etico e religioso. La capacità di agire corrisponde alla capacità di scegliere di agire? Non proprio. Solo la seconda, infatti, implica una specifica dimensione morale e chiama in causa il concetto di responsabilità. Il punto è che i sistemi di intelligenza artificiale si mostrano in grado di esprimere giudizi e prendere decisioni all’interno di scenari sempre più complessi. Essi adottano comportamenti che neppure chi ha scritto il loro codice riesce pienamente a spiegare. In questo senso diciamo che sono sistemi autonomi.

Fino a oggi la ricerca si è sviluppata all’interno di silos. Gli economisti si sono occupati e continuano a occuparsi dell’impatto della AI nell’economia, i biologi dell’impatto della AI nella biologia e via di questo passo. Gli autori dell’articolo su “Nature” spiegano che un simile approccio è limitativo. Occorre mettere insieme le esperienze di tutti coloro che studiano il comportamento delle macchine, in ogni campo. È questo lo spirito del machine behavior.

Per una intelligenza artificiale giudicabile

Uno degli aspetti cruciali della riflessione di Rahwan e degli altri ricercatori di Machine Behavior è la necessità di individuare solidi parametri per giudicare l’operato delle macchine e la qualità delle scelte che esse compiono al nostro posto. Chi può dire, per esempio, se un motore di raccomandazione decide sempre nel modo migliore, quando ci suggerisce l’acquisto di un prodotto o di un servizio, preferendolo ad altri? E chi sta avvantaggiando, con la sua scelta? Il potenziale consumatore di quel servizio o prodotto, oppure chi lo commercializza?

Il punto è che la crescente complessità degli algoritmi e degli ambienti in cui essi operano rende difficile, se non impossibile, descrivere in modo analitico alcuni dei loro attributi e comportamenti. Inoltre, proprio per la loro ubiquità e complessità, prevedere gli effetti degli algoritmi – quelli positivi, ma anche quelli negativi – è diventata una sfida essenziale per la nostra società.

Le domande da porsi

Ecco alcune delle domande che, secondo gli autori dell’articolo su “Nature”, ricadono nel dominio del machine behavior:

  • Gli algoritmi creano un effetto filter-bubble?
  • È giusto che i robot conversazionali stimolino nei bambini l’interesse per determinati contenuti, prodotti o servizi?
  • Gli algoritmi discriminano gli esseri umani in base alla razza?
  • In che modo un algoritmo deve distribuire il rischio fra i passeggeri di un’auto a guida autonoma e i pedoni che attraversano la strada?
  • È possibile che gli algoritmi di matching impiegati dai siti di incontri online incentivino l’omofilia?
  • Gli algoritmi aumentano il rischio sistemico di crolli dei mercati finanziari?

Un metodo interdisciplinare

Per rispondere a questi e ad altri interrogativi serve un approccio interdisciplinare. L’ambito del machine behavior si trova al punto di intersezione fra il mondo del design e dell’ingegneria dei sistemi di intelligenza artificiale e lo studio del comportamento degli agenti biologici.

Lo scambio fra le diverse discipline coinvolte si sviluppa secondo una dinamica circolare, che potremmo definire autofertilizzante. La ricerca comportamentale applicata alle macchine fornisce prove quantitative che possono aiutare lo studio dei potenziali effetti della tecnologia sui sistemi sociali e tecnologici. A loro volta, questi studi possono contribuire a migliorare la pratica ingegneristica e a sollevare nuove questioni scientifiche relative ai comportamenti delle macchine. Infine, lo studio scientifico del comportamento aiuta gli esperti di intelligenza artificiale a formulare affermazioni più precise su ciò che i sistemi di AI possono e non possono fare.

Alla base di tutto vi è ovviamente l’idea di comportamento applicata alla macchina. Si tratta, in particolare, di comprendere il modo in cui il comportamento della macchina viene attivato e generato in ambienti specifici. Ciò implica, a propria volta, l’interpretabilità dei loro modelli di apprendimento della macchina stessa.

Interpretabilità vs. accuratezza

Quello dell’interpretabilità è davvero il grande nodo dell’intelligenza artificiale contemporanea. Il deep learning si nutre di un paradosso: l’accuratezza dell’algoritmo è inversamente proporzionale alla sua interpretabilità. D’altra parte, un modello non interpretabile è un modello che non guadagna la fiducia dei suoi potenziali utenti, e dunque rischia di non essere usato.

Non a caso da un po’ di tempo è di gran moda parlare di explanatory artificial intelligence (XAI). Si veda, a tale proposito, il recente studio di Leilani H. Gilpin, David Bau, Ben Z. Yuan, Ayesha Bajwa, Michael Specter e Lalana Kagal, ricercatori presso il Computer Science and Artificial Intelligence Laboratory dell’MIT, intitolato Explaining Explanations: An Overview of Interpretability of Machine Learning (febbraio 2019). Interessante anche un denso articolo di Eduardo Perez Denadai apparso nel novembre scorso sul sito di Toward Data Science (Interpretability of deep learning models).

Come si sviluppa il comportamento

Studiare il comportamento animale o umano significa comprendere come un individuo acquisisce un particolare comportamento, ad esempio attraverso l’imitazione o il condizionamento ambientale. Nel caso del machine behavior lo sviluppo comportamentale può essere direttamente attribuibile a scelte di ingegneria umana o di progettazione. Ma nei sistemi di intelligenza artificiale più complessi, come un veicolo a guida autonoma, il comportamento della macchina si sviluppa nel tempo. Senza contare che i comportamenti possono cambiare in seguito ad aggiornamenti algoritmici introdotti nella macchina dai suoi progettisti dopo l’implementazione.

Gli autori dell’articolo su “Nature” suggeriscono di distinguere tre tipi di comportamento: quello della macchina considerata individualmente, quello dei sistemi collaborativi composti da più macchine e quello di sistemi ibridi uomo-macchina. In aggiunta è possibile studiare il modo in cui il comportamento umano è alterato per effetto della macchina, così come l’analoga alterazione del comportamento della macchina per effetto dell’uomo.

Le macchine non hanno un’etica

Studiare il comportamento delle macchine non significa attribuire a esse un intento morale. Pretendere che gli algoritmi di intelligenza artificiale si assumano la responsabilità morale delle loro azioni è assurdo (questione già posta nel 2015, quando Stephen Hawking ed Elon Musk firmarono un famoso manifesto). Se un cane morde qualcuno, il proprietario del cane è ritenuto responsabile. Tuttavia, è utile studiare i modelli comportamentali degli animali per prevedere situazioni aberranti e potenzialmente pericolose.

Occorre peraltro tenere presente le importanti differenze fra il comportamento delle macchine e quello degli esseri umani e degli animali. Come giustamente ricordano ancora gli autori dell’articolo Machine behaviour, «dobbiamo evitare l’eccessivo antropomorfo e zoomorfismo. Anche se prendere in prestito modelli scientifici esistenti di analisi comportamentale può rivelarsi utile per lo studio delle macchine, queste possono mostrare forme di intelligenza e comportamenti qualitativamente diversi, anche alieni, da quelli osservati negli agenti biologici» (p. 483, traduzione nostra).

Foto: Gerd Altmann – Pixabay.

Paolo Costa
Paolo Costa
Socio fondatore e Direttore Marketing di Spindox. Insegno Comunicazione Digitale e Multimediale all’Università di Pavia. Da 15 anni mi occupo di cultura digitale e tecnologia. Ho fondato l’associazione culturale Twitteratura, che promuove l’uso di Twitter come strumento di lettura attraverso la riscrittura.

Potrebbe piacerti anche

Cybersecurity, arriva la NIS 2: cosa cambia per le infrastrutture critiche e come Spindox aiuta i suoi clienti

Cybersecurity, arriva la NIS 2: cosa cambia per le infrastrutture critiche e come Spindox aiuta i suoi clienti

Dal 17 ottobre 2024 la NIS 2 è pienamente vigente. La direttiva introduce nuove regole per la sicurezza informatica delle infrastrutture critiche e dei servizi essenziali in Europa. Le aziende nei settori energetico, sanitario, delle telecomunicazioni e altri sono chiamate ad adeguarsi a standard più elevati. Chi è impattato, i rischi di non conformità e il ruolo di Spindox nell’aiutare i clienti a migliorare la propria sicurezza.