Intelligenza artificiale. Etica e IA: un connubio difficile?
Alessandro Polli | Ottobre 2, 2017
Con il progredire dell’intelligenza artificiale e la sua diffusione nei più disparati ambiti applicativi iniziano a delinearsi delicate questioni etiche, del resto già anticipate quasi 70 anni fa nella visionaria raccolta di Asimov Io, robot. Una fra tutte, sollevata dagli avanzamenti delle automobili a guida autonoma, è stata posta da Patrick Lin nel 2013 in un articolo pubblicato su The Atlantic, riprendendo un famoso dilemma di filosofia etica − formulato nel 1967 da Philippa Ruth Foot − che prende il nome di problema del carrello.
Le questioni su cui sono chiamati a dare un contributo filosofi, neuroscienziati ed esperti di robotica sono numerose. Le elenca Julia Bossmann, presidente del Foresight Institute, in un articolo pubblicato sul sito del World Economic Forum. In sintesi, i punti maggiormente controversi sono quattro: contributo dei robot alla distruzione di posti di lavoro e conseguente inasprimento delle disuguaglianze; interazione dei robot sul comportamento umano (e viceversa); problemi di sicurezza; diritti dei robot e più in generale delle intelligenze artificiali.
Proprio con riferimento al c.d. «trolley problem», Luciano Floridi, filosofo dell’informazione a Oxford, afferma che «è un problema che è già stato risolto da Tommaso D’Aquino nel XIII secolo [ … ] Accartocciarsi su mille discorsi, variabili e quant’altro può essere un divertente esercizio intellettuale, ma non ha ricadute pratiche, almeno se vogliamo affrontare questioni serie».
E di questioni più serie, ovviamente, ce ne sono molte, a partire da come evitare di «trovarci in una situazione in cui le alternative sono una peggio dell’altra e, nel caso in cui avvenga un guaio, come allocare la responsabilità», afferma Floridi.
In sostanza, con chi ce la prendiamo se un algoritmo sbatte in galera un innocente o diagnostica una cura errata: con l’utilizzatore, con il matematico o con l’azienda produttrice? Secondo Floridi occorre muovere dal concetto di responsabilità oggettiva, «che prevede che in caso di malfunzionamento serio sia il costruttore a dover dimostrare la sua innocenza».
Inoltre, argomenta Floridi, «una seconda analogia risale addirittura al diritto romano e riguarda il rapporto tra padrone e schiavo nell’antica Roma: nonostante lo schiavo sia ovviamente più intelligente di qualsiasi robot noi potremo mai costruire, quando questi commetteva un crimine la responsabilità legale ed economica ricadeva sul proprietario». Conclude Floridi: «I romani sapevano benissimo che se avessero scaricato tutte le colpe sugli schiavi, questi sarebbero stati completamente deresponsabilizzati. In questo modo, invece, ci si assicurava che il padrone stesse attento e tenesse la situazione sotto controllo».
Fonte: Le Macchine Volanti