Le biotecnologie, le nanotecnologie, le tecnologie dell’informazione e della comunicazione reinventano e modificano costantemente gli strumenti e le modalità di azione sulla materia vivente, dando origine a nuove sfide per la responsabilità umana.
Una delle recenti discipline dell’ingegneria con la quale l’essere umano si trova a convivere è la robotica. È prevedibile che nei prossimi anni conviveremo con robot e dispositivi robotici sempre più sofisticati. Molti di questi congegni saranno robot umanoidi, altri avranno connotati differenti, ma ciò non modifica sostanzialmente il problema: qualunque sarà la loro sembianza o l’uso che ne faremo, l’evidenza è che ci saranno e che forse, come ad oggi accade per gli smartphone, i tablet e i pc, farne a meno diventerà praticamente impossibile.
In realtà è difficile prevedere che dispositivi sarà possibile progettare e programmare in futuro grazie all’intervento dell’intelligenza artificiale. Pensiamo ad esempio ai robot umanoidi di Hiroshi Ishiguro, lo scienziato giapponese che ha creato un clone robot di se stesso, un androide sostanzialmente identico al prototipo umano, oppure pensiamo alla possibile realizzazione di robot creati con cellule biologiche e materiali sintetici con lo scopo di riprodurre i connotati propri di un organismo vivente.
I progressi della robotica potrebbero perfino portare alla realizzazione di intelligenze artificiali talmente sofisticate da supporre che possano sviluppare una coscienza e vita emotiva simili a quella umana.
A questo punto sarà ancora possibile considerare i robot come dei semplici dispositivi? Sarà ancora possibile parlare di controllo esercitato dall’uomo su automi così progrediti e autonomi?
A chi verrà attribuita la responsabilità per gli eventuali danni che queste macchine potrebbero causare ledendo cose o e persone per le quali lavorano: a chi ha progettato software, a chi ha messo in commercio il robot, al proprietario o al robot stesso? E in quest’ultimo caso quale tipo di sanzione dovrebbe essere disposta e verso chi?
La possibilità di realizzare e la conseguente creazione di questi nuovi automi richiede un’attenta analisi dei molti e nuovi problemi etici, psicologici, sociali ed economici che inevitabilmente insorgono; di conseguenza è necessario che la progettazione, la costruzione e l’utilizzo dei robot venga subordinato a precise disposizioni atte a regolamentare il mondo degli automi, il rapporto tra l’uomo e l’androide e l’uso che l’essere umano ne farà.
Di qui, la nascita della roboetica ovvero l’etica applicata alla robotica, una disciplina che si fa carico della riflessione etica concernente la liceità degli orientamenti operativi di questo importante sviluppo tecnologico.
Alla roboetica l’arduo compito di elaborare criteri di valutazione che ci consentano sempre e comunque di salvaguardare e promuovere la dignità della persona cercando di comprendere in che modo questa realtà mista, composta da esseri umani e agenti autonomi robotici, possa coesistere.
Da parte mia ritengo che l’orizzonte del rapporto uomo-androide nel prossimo futuro, ma in realtà già del nostro presente, debba essere caratterizzato da una cooperazione tra intelligenza umana e intelligenza artificiale. Solo attraverso un dialogo con questi nuovi strumenti d’azione e il discernimento etico tra l’apporto positivo e la minaccia all’essere umano sarà possibile utilizzare al meglio i robot che l’ingegneria ci mette a disposizione.
Silvia Pennisi
[Immagine tratta da sentieridigitali.it]