Intelligenza artificiale

In uomo-macchine si descriveva l’effetto delle macchine sull’uomo, ma adesso bussa alle porte la rivoluzione dell’intelligenza artificiale e si tratta di una rivoluzione epocale ed inevitabile che dobbiamo governare.

 

Nel 1942 Isaac Asimov, visionario scrittore di fantascienza russo-americano, enunciò quelle che lui chiamò Le tre leggi della robotica.

Prima Legge: “Un robot non può recar danno a un essere umano né può permettere che a causa del proprio mancato intervento un essere umano riceva danno”.

Seconda legge: “Un robot deve obbedire agli ordini impartiti dagli esseri umani purché tali ordini non contravvengano alla prima legge”.

Terza legge: “Un robot deve proteggere la propria esistenza purché questo non contrasti con la prima e la seconda legge”.

Oggi Google, in collaborazione le università di Stanford e Berkeley fa altrettanto, pubblicando un documento dal titolo “Concrete problems in AI safety”, in cui si enunciano cinque punti da rispettare per evitare l’insorgere di situazioni potenzialmente pericolose legate ad uno sviluppo poco responsabile delle forme di intelligenza artificiale.

  • Evitare effetti collaterali negativi: l’intelligenza artificiale non dovrebbe disturbare l’ambiente circostante mentre svolge un compito.
  • Evitare di promuovere l’hacking: l’intelligenza artificiale dovrebbe portare a termine le proprie mansioni in maniera corretta anziché utilizzando soluzioni alternative (ad esempio un robot per la pulizia che copre lo sporto con materiale non riconosciuto come sporco).
  • Supervisione scalabile: l’intelligenza artificiale non dovrebbe necessitare di feedback o input costanti per essere efficiente.
  • Apprendimento sicuro: l’intelligenza artificiale non dovrebbe danneggiare se stessa o l’ambiente circostante mentre impara.
  • Affidabilità adattamento distribuzionale: l’intelligenza artificiale dovrebbe essere in grado di riconoscere un nuovo ambiente e continuare ad operare correttamente in esso.

Certo i criteri di Google appaiono più elaborati, ma balza all’occhio la mancanza dell’uomo dall’equazione e l’assenza del concetto del possibile danno recato dalle macchine all’uomo.

Per Evoluzione Necessaria la centralità dell’uomo è un imperativo categorico, omettere ciò significa imboccare strade inconcepibili, inesplorate e potenzialmente devastanti.

Lascia un commento