Le leggi della robotica dalla letteratura al diritto e all’etica

Cerca nel sito

Altri risultati..

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors


La robotica tra letteratura e diritto.

I campi  della letteratura e del diritto possono apparire, ad un primo sguardo, molto distanti. Tuttavia se solo si concentra l’attenzione sul diritto contemporaneo nella sua tensione di superamento del giuspositivismo (*), ci si rende conto facilmente che l’universo della letteratura può assumere – e in molti casi ha già assunto – un ruolo di rilievo fra le fonti che ne determinano lo sviluppo. Ciò vale anche per quel ramo della letteratura contemporanea che prende il nome di science fiction.


(*)Col termine positivismo giuridico o giuspositivismo si intende quella dottrina di filosofia del diritto, la quale considera come unico possibile diritto il diritto positivo, ossia quello posto dal legislatore umano.

La dottrina del giuspositivismo si presenta in opposizione a quella del giusnaturalismo, tanto che Bobbio le ha chiamate “i due fratelli nemici”. La differenza tra le ultime due consiste nel fatto che:

  • il giuspositivismo è una concezione monista del diritto, che ritiene che il diritto positivo sia l’unico diritto degno di questo nome;
  • il giusnaturalismo è una concezione dualista: sostiene cioè l’esistenza di due ordini di diritto,
  1. un diritto naturale: insieme di principi eterni e universali;
  2. un diritto positivo che si trova in relazione subordinata: prodotto storico che promana dalla volontà del legislatore.

Per i giusnaturalisti il diritto positivo, per essere valido, dev’essere giusto e quindi conforme ai principi del diritto naturale.

Analizzeremo in questo articolo i legami tra la letteratura di fantascienza, la riflessione etica e la scienza robotica, percorso dal quale il diritto può a mio giudizio ricavare motivi rilevanti di interesse. Più che descrivere un legame già stabilito fra letteratura e diritto, vorrei dunque cercare qui di suggerire le possibili implicazioni giuridiche di problemi etici e scientifici la cui recentissima formulazione è stata in prima istanza ispirata dalla letteratura novecentesca, ma che chiamano in causa tutta la moderna filosofia morale. Riflettere in termini etico-giuridici sulla robotica può forse apparire ad alcuni un semplice divertissement. Ma – come ci hanno insegnato nel corso del XX secolo il rapido sviluppo delle scienze della vita e la conseguente codificazione della bioetica quale specifica riflessione etico-giuridica – la filosofia morale e la teoria del diritto devono saper tenere il passo delle cosiddette hard sciences se vogliono mantenere presa sulla realtà.




La figura dell’essere inanimato che prende vita grazie ad un demiurgo umano risale, se consideriamo la sola cultura europea, al mondo classico: la storia dello scultore Pigmalione e della sua statua animata Galatea inaugura un mito che attraverso un lungo percorso e molte varianti troverà nel Golem e nel mostro del Dr. Frankenstein la sua codificazione più riconoscibile. Ma nessuno di questi personaggi è una creazione esclusivamente umana: Galatea ed il Golem giungono alla vita grazie all’intervento, diretto o mediato, della divinità, mentre il mostro del Dr. Frankenstein, seppur già figlio della rivoluzione scientifica, è descritto come un assemblaggio di pezzi di cadaveri o parti organiche preesistenti.
Il primo automa che la letteratura descrive come interamente creato e vivificato dall’uomo  è dunque il robot, che vede la luce nel 1920 nella fortunata opera teatrale del drammaturgo ceco Karel Čapek, intitolata I robot universali di Rossum. In ceco la parola ‘robota’ indica un lavoro pesante, forzato, al servizio di qualcuno, qualcosa di simile alla corvée medievale. Čapek modifica leggermente il termine per descrivere gli esseri antropomorfi creati dalla fabbrica Rossum e posti al servizio degli uomini. Questi ultimi, sgravati dal peso del lavoro materiale, si infiacchiscono e finiscono col cedere il passo alla nuova specie, che preme per raggiungere l’indipendenza. Fin dal suo esordio letterario, dunque, il robot è descritto sia come la più alta creazione dell’essere umano, segno del suo affrancamento dal lavoro e dal divino, sia come un senziente che progressivamente raggiunge consapevolezza di sé ed aspira a sua volta a sostituirsi al proprio creatore.I robot di Čapek non sono automi meccanici, ma esseri biologici creati attraverso processi chimico-industriali ed assimilabili dunque a quelli che la fantascienza descriverà come androidi o replicanti. Ma pochi anni dopo il dramma di Čapek, nel 1927, il regista tedesco Fritz Lang porta nelle sale cinematografiche il visionario Metropolis, modificando la rappresentazione dell’automa.
Nel film appare Maria, donna meccanica dalle sembianze umane, che contribuisce in maniera determinate a diffondere a livello mondiale l’immagine del robot come figlio senziente, meccanico ed antropomorfo della scienza moderna. In queste sue prime rappresentazioni, il robot appare capace di provare sentimenti paragonabili a quelli umani, nonché di interagire politicamente con i propri creatori: i prodotti della Rossum, dopo la ribellione scoprono anche l’amore, mentre l’automa Maria, dopo aver sedotto numerosi uomini, guida una piccola rivoluzione proletaria.
La codificazione e la diffusione del mito del robot antropomorfo si devono in gran parte a Čapek e Lang, ma è al matematico Alan Turing che si devono i primi criteri di pensabilità non solo artistica di un senziente meccanico. Elaborando nel 1936 la Logical computing machine – o macchina di Turing – il matematico inglese dà di fatto avvio alla moderna computer science e getta le basi per i successivi studi sull’intelligenza artificiale. I robot fino a quel momento immaginati sembravano possedere una sorta di indefinita coscienza artificiale, che andava ben oltre, sia in termini quantitativi che qualitativi, i limiti delle capacità computative assegnate da Turing alla sua macchina teorica. Ma nella produzione letteraria successiva, la differenza fra intelligenza artificiale e coscienza artificiale comincia a determinare cambiamenti profondi nella concezione della robotica.
Dall’inizio degli anni ’40 le short stories sui robot si moltiplicano. L’algida intelligenza artificiale diviene una delle caratteristiche fondamentali del robot antropomorfo, al quale si attribuiscono capacità mnemoniche e computazionali che superano di gran lunga quelle umane.
Al tempo stesso, però, il discrimine fra essere umano e robot viene posto nel limitato tipo di coscienza di sé che quest’ultimo può raggiungere: quand’anche viene rappresentato come consapevole della propria esistenza, il robot mostra raramente una volontà, una capacità di giudizio ed un’affettività autonome. Sia la mancanza di queste caratteristiche umane che il tentativo di compensarla artificialmente divengono ben presto capisaldi della narrativa robotica.
Nel momento in cui la figura del robot si definisce come senziente ed agente, ma non dotata di anima o coscienza, il problema della sua interazione etica, giuridica e politica con gli esseri umani richiede – anche all’immaginazione dell’artista – una di soluzione strutturale. Lo scrittore americano Isaac Asimov ne trova una geniale, destinata modificare profondamente la rappresentazione comune dei robot. In un racconto intitolato Robbie, pubblicato nel 1940, Asimov descrive per la prima volta le tre leggi fondamentali della robotica:

Ti potrebbe interessare anche:  Python: Un altro esercizio svolto sulla fattorizzazione

(1) Un robot non può danneggiare un essere umano né, attraverso l’inazione, permettere che un essere umano venga danneggiato.
(2) Un robot deve obbedire agli ordini dati dagli esseri umani, a meno che questi ordini non violino la Prima Legge.
(3) Un robot deve proteggere la propria esistenza, purché tale protezione non sia in contrasto con la Prima o la Seconda Legge.

L’antropocentrismo sotteso a queste leggi assegna al robot una funzione strumentale. Esso è concepito come un avanzato strumento senziente, la cui funzione principale è la protezione dell’umano. Quest’impostazione deontologica sembra richiamare in maniera diretta una delle espressioni più compiute dell’etica moderna, l’imperativo categorico elaborato da Immanuel Kant. Nelle sue due formulazioni più raffinate, espresse rispettivamente nei Fondazione della metafisica dei costumi e nella Critica della ragion pratica l’imperativo categorico kantiano si presenta in questo modo:

• Agisci in modo da trattare l’umanità, così nella tua persona come nella persona di ogni altro, sempre insieme come fine, mai semplicemente come mezzo.
• Opera in modo che la massima della tua volontà possa sempre valere in ogni tempo come principio di una legislazione universale.

L’imperativo categorico di Kant e le leggi robotiche di Asimov mostrano due chiare similitudini e una profondissima differenza: in tutti e due i casi alla centralità dell’umano si associa la necessità di rendere universale la norma che lo tuteli, ma se per Kant il senziente tutelante è un soggetto che dà a sé stesso la norma, per Asimov esso è vincolato dall’esterno. Proviamo ora, sulla base della loro contiguità concettuale, ad unificare questi principi in un quadro comune: il robot sembra niente di più che un evolutissimo elettrodomestico in grado di svolgere funzioni complesse e rispondere a stimoli codificati, stimoli che gli provengono in gran parte dall’essere umano, descrivibile a sua volta come unico vivente al quale è riconosciuto un valore etico, in quanto dotato libertà di autodeterminazione e di comportamento morale. 

Nei racconti sui robot successivi agli anni ’40, narrativamente collegati a Robbie, Asimov aggiunge alle tre leggi fondamentali della robotica una quarta legge, che nel romanzo del 1986 Fondazione e terra è così presentata:

(4) Un robot non può danneggiare l’umanità né, attraverso l’inazione, permettere che l’umanità venga danneggiata.

Questa legge, elaborata per ultima, si rivela in realtà un prerequisito delle altre tre, ed è questo il motivo per cui viene denominata ‘Legge Zero’. Ciò che la distingue dalle altre – tutte di formulazione umana – è che essa viene codificata direttamente da un robot, Daneel Olivaw, la cui ormai sviluppatissima intelligenza artificiale è in grado di comprendere col pensiero sistemi complessi come le società umane evolute. Il robot si rende conto che seguire le tre leggi fondamentali implica, per un senziente in grado di abbracciare orizzonti vasti e di influire sulla loro modificazione, una ridefinizione dell’oggetto degno di protezione: non più il singolo essere umano, ma l’umanità in quanto tale.

Ti potrebbe interessare anche:  Python: studio di funzione con Scipy

Attraverso la quarta legge il legame fra il sistema normativo robotico e quello etico kantiano si rinsalda, ma al tempo stesso emergono alcuni punti critici. Asimov mette in luce –attraverso una commistione di narrazione, ragionamento logico e attenzione scientifica – il problema della definizione dell’umanità in senso etico, problema che Kant aveva risolto fondando la sua morale sulla coincidenza, all’interno della coscienza umana, della libertà col dovere. Questa coincidenza, già messa in discussione da molti lettori e critici di Kant, è impossibile da raggiungere per il robot, il quale sente di dover superare i limiti delle prime tre leggi ma al tempo stesso non riesce a concepire la sovrapposizione dei significati individuale ed universale di umanità. Nel suo ragionamento lineare, fatto di scelte binarie complesse ma vincolate dal dovere di proteggere il suo creatore, Olivaw trova difficoltà a passare dalla protezione di un singolo essere umano, la cui integrità biologica egli è ben in grado di definire, alla protezione di una società evoluta, nella quale ogni azione a difesa di un individuo o gruppo di individui può rivelarsi un danno per un altro individuo o gruppo di individui. Evitare che l’umanità venga danneggiata diventa per lui in un compito epocale, non risolvibile sulla sola base delle norme deontologiche che regolano il suo cervello positronico. Nel compiere il passaggio da un’etica individuale chiaramente regolata ad una visione più sociale e politica del comportamento morale, il robot si scontra con i suoi limiti.
E’ questa l’originale rielaborazione del potenziale conflitto fra etica e politica che le leggi della robotica di Asimov mettono in luce  Mentre la robotica si trasformava da frutto dell’immaginazione letteraria e cinematografica in oggetto della ricerca scientifica, la finezza della struttura logica delle leggi asimoviane ha assunto un ruolo rilevante, tanto che negli ultimi decenni essa è stata presa in prestito da scienziati, tecnici e progettisti robotici. In una sorta di vuoto epistemologico e normativo, dovuto alla rapida evoluzione degli studi e delle applicazioni, le leggi di Asimov hanno fornito un paradigma di riferimento per l’impostazione di macchine elettroniche o meccaniche mosse da intelligenza artificiale.
Le quattro leggi sono state ampiamente utilizzate, reinterpretate e modificate da scrittori, filosofi, ricercatori e scienziati. Fra le molteplici direzioni che queste riflessioni hanno preso, vorrei qui segnalare quella indicata dal fisico e progettista Mark W. Tilden. Più che riformulare le tre leggi fondamentali di Asimov, Tilden le capovolge completamente:

(1) Un robot deve a tutti i costi proteggere la sua esistenza.
(2) Un robot deve ottenere e mantenere accesso ad una sua propria fonte di energia.
(3) Un robot deve continuamente ricercare migliori fonti di energia.

Il paradigma antropocentrico di Asimov viene rimosso, ma anche nel caso di Tilden la norma viene al robot dall’esterno. Se dunque il robot non è più tenuto primariamente al rispetto dell’umano, è sempre però quest’ultimo a fornirgli le direttive per la propria autoconservazione.
Le leggi che regolano la vita del RoboSapien – questo il nome scelto da Tilden per una della sue più famose creazioni antropomorfe – sono dunque una complessa evoluzione del problema, non la sua soluzione.
Al fondo rimane irrisolta la questione della coscienza artificiale, che sembra non poter essere affrontata sul piano dell’evoluzione delle capacità computative e motorie delle macchine intelligenti. Nessuno dei due fondamentali canali di apprendimento dei robot e delle macchine intelligenti attuali, e cioè i sistemi di sensori e i database di memoria, sembra ancora in grado di generare in essi una non mediata presenza a sé ed un’intenzionalità consapevole. Non è possibile stabilire in anticipo se questo scoglio sarà mai superabile. Ma è una certezza il fatto che università e centri di ricerca in varie parti del mondo lavorano in questa direzione, tentando una riformulazione del problema attraverso metodi e risultati che spesso sembrano prodotti di fantascienza.
Se la bioetica ha rimesso in discussione ciò che è definibile come umano, la robotica e le scienze ad essa connesse muovono in direzione di una potenziale ridefinizione di ciò che è definibile come coscienza.
Intanto la nostra vita quotidiana è sempre più intrecciata con l’evoluzione delle macchine intelligenti.

Esoscheletri meccanici dotati di sensori in grado di aiutare persone con incapacità motorie sono una realtà, così come sono realtà i motori di ricerca del web che selezionano quali informazioni fornirci basandosi non tanto sui nostri input espliciti, quanto su algoritmi generati a partire dal nostro precedente uso della rete.
Nella medicina, nell’industria, nell’informatica, nell’educazione e in molti altri settori che toccano la sfera etica, giuridica o politica della nostra vita, interagiamo già con macchine senzienti avanzate. Quelle antropomorfe, sebbene da anni già sul mercato, sono al momento soltanto dei prototipi, che lasciano i saloni delle esposizioni solo per finire in centri di ricerca dove sono impiegati soprattutto per lo sviluppo di applicazioni pedagogiche e mediche. Ma il progresso della scienza robotica e la commercializzazione dei suoi primi prodotti hanno stimolato negli ultimi dieci anni un serio dibattito sul tema dell’interazione etica fra esseri umani e robot. Nel 2002 l’ingegnere Gianmarco Veruggio ha coniato il termine Roboethics, fornendo così una prima circoscrizione semantica del campo di studio, che è stato discusso due anni dopo a San Remo nel First International Symposium on Roboethics. Ancor più recenti sono le pubblicazioni presso la Cambrige Press e la MIT press di Micheal e Susan Anderson , Machine ethics, e di Patrick Lin, Keith Abney e George A. Bekey , Robot ethics, che, al di là del loro intrinseco valore di ricerca, mostrano come queste tematiche siano ormai entrate a pieno titolo nel campo d’interessi delle maggiori realtà editoriali ed accademiche statunitensi.
Questi studi sollevano interrogativi e indicano percorsi che è bene travalichino i confini delle scienze ingegneristiche, informatiche, cognitive e morali. Il neonato universo della roboethics chiama ovviamente in causa il diritto informatico, ma descrive un orizzonte ben più vasto. Nei vari e differenti approcci di indagine che affollano questo nuovo campo di studi credo sia possibile identificare due principali punti d’interesse per scienza giuridica:

Ti potrebbe interessare anche:  Python: alcune funzioni pronte all’uso per la distribuzione uniforme

1) può o deve il diritto interrogarsi sui canoni di legittimità della ricerca robotica?

2) può o deve il diritto, in una prospettiva di più lungo ed imperscrutabile termine, porsi il problema di tutelare e normare soggetti la cui coscienza sia costituita da pratiche, ragioni e metodi di apprendimento differenti da quelle umane?

La prima domanda affronta, modificandolo, uno dei problemi principali già sollevati dalla bioetica (disciplina con la quale, in campo medico, la robotica è già in parte intrecciata). La seconda indica una sfida che la fantascienza ha già affrontato mescolando logica e fantasia, e che il diritto, che da tempo ha cominciato ad interrogarsi sulla maniera più adeguata di tutelare l’ambiente, gli altri esseri viventi e le future generazioni di esseri umani, potrebbe presto dover fare sua.

Il Parlamento Ue nel mese di febbraio 2017 ha approvato una risoluzione che chiede alla Commissione europea regole giuridiche sul rapporto tra uomini e macchine intelligenti.

L’avanzata della robotica secondo i parlamentari europei rende necessario l’individuazione di responsabilità civili e penali precise in caso di danni causati dagli automi.

Un chiarimento prima di proseguire nell’articolo: una risoluzione è un atto non vincolante. Significa che i parlamentari europei, attraverso questo atto, hanno manifestato la loro preoccupazione per i rischi che nasceranno nei prossimi anni dalla diffusione massiccia dei robot nella società. E hanno consigliato all’Unione europea l’adozione di un codice che regoli i rapporti tra uomo e androide. Quindi la legge non c’è ancora, è stata solo chiesta e dunque se n’è cominciato a parlare.

La legge sui robot dell’Ue e lo status giuridico dei robot.

Nell’immediato la preoccupazione principale dei parlamentari che hanno chiesto una legge sui robot dell’Ue riguarda le macchine robot (driveless cars), quelle che fra qualche anno dovremmo vedere sfrecciare sulle nostre strade. Se un’auto robot investirà un pedone o causerà un danno a un’altra auto chi pagherà i danni? Di chi sarà la responsabilità penale se ucciderà un uomo che sta attraversando sulle strisce pedonali? Se un robot, durante le ore di lavoro, causerà un danno fisico a un collega umano, chi risarcirà la vittima? Sono queste le risposte che dovrà dare una legge sui robot.

Ma è in discussione anche la possibilità che un giorno i robot possano essere considerati vere e proprie persone giuridiche, in quanto capaci di pensare e dunque di agire autonomamente. In cantiere potrebbe esserci anche la creazione di un’Agenzia europea per la robotica e l’intelligenza artificiale, che dovrebbe occuparsi di tutti gli aspetti legati alla convivenza sociale con gli automi.

“Si potrebbe dotare i robot di una personalità virtuale”, ha spiegato la relatrice della risoluzione la deputata socialista Mady Delvaux. “Vogliamo creare un quadro giuridico per i robot che sono attualmente sul mercato o lo saranno nei prossimi 10 o 15 anni”.

(115)