i robot soldati
DESCRIPTION
I Robot Soldati. Unmanned Vehicles. Droni radio/tele guidati Ampiamente diffusi Nessuna autonomia Ancora pochi gli esemplari dotati di armi Eye-on-target. Unmanned Aerial Vehicles. Unmanned Aerial Vehicles. Unmanned Ground Vehicles. Unmanned Ground Vehicles. Unmanned Undersea Vehicles. - PowerPoint PPT PresentationTRANSCRIPT
I Robot Soldati
Unmanned Vehicles
•Droni radio/tele guidati•Ampiamente diffusi•Nessuna autonomia•Ancora pochi gli esemplari dotati di armi•Eye-on-target
Unmanned Aerial Vehicles
Unmanned Aerial Vehicles
Unmanned Ground Vehicles
Unmanned Ground Vehicles
Unmanned Undersea Vehicles
Unmanned Surface Vehicles
Dispositivi autonomi (CIWS)
Progetti avanzati
•Ancora allo stadio prototipale•Primi sistemi con alto grado di autonomia•Impieghi in contesti peculiari
Progetti avanzati - Crusher
Progetti avanzati – SGR-A1
Progetti avanzati - RoboSnake
Progetti avanzati - BigDog
Autonomous Military AgentPro
•Minimizzazione delle perdite umane•Diminuzione dei costi della guerra•Il basso numero di perdite favorisce il
consenso•Missioni dull, dirty and dangerous•Immuni a emozioni e bisogni umani•Non inclini a commettere atrocità inutili•Proiettati ad avere prestazioni migliori
dell’uomo (?)
Autonomous Military AgentContro
• Ricorso più facile all’azione militare• Progressivo abbandono della diplomazia• Maggiori perdite e danni per il nemico• I civili possono divenire obiettivi militari• Riskless war
▫Il reciproco rischio giustifica moralmente i contendenti
▫Il rischio asimmetrico è proprio delle operazioni di polizia (buoni vs. cattivi)
▫Il contendente più debole deve trovare altri modi di colpire (terrorismo)
EticaTeoria deontologica
•Valuta l’azione a priori▫Moralità di intenzione o norma da cui origina
l’azione▫Un’azione è morale se è prodotta da “buona”
intenzione▫I mezzi ed i fini sono strettamente correlati
• Imperativo categorico (Kant)▫“agisci solo secondo la massima per la quale
puoi e allo stesso tempo vuoi che questo diventi una legge universale” (universalismo)
•Leggi della Robotica (Asimov)
EticaTeoria teleologica
•Valuta gli effetti dell’azione▫ Un’azione è morale se produce effetti aumento del
“bene” o diminuzione del “male”▫ Il fine giustifica i mezzi
•Consequenzialismo▫ Criteri razionali per giudicare positività o negatività
delle azioni• Utilitarismo
▫ “Utilità” è la misura di felicità/piacere/benessere▫ Dolore/piacere (Bentham)▫ Benessere sociale è somma del piacere individuale▫ Giustizia è massimizzazione del benessere sociale
Etica e guerraLeggi di Guerra (L.O.W.)
•Suddivisione giurisprudenziale▫ Jus ad bellum – entrata in guerra ed uso della forza
militare▫ Jus in bello – condotta durante i conflitti▫ Jus post bellum – trattamento prigionieri, occupazione
territori
•Convenzioni internazionali▫ Convenzioni dell’Aia (1899-1907)▫ Convenzioni di Ginevra (1949-1977)
•In Italia “Legge di Guerra e Neutralità”▫ R.D. 8 luglio 1938
Etica e guerraRegole d’Ingaggio (R.O.E.)
•Emanate dai vertici militari▫Applicazione pratica dello jus in bello▫Derivano dalle leggi internazionali e nazionali▫Dipendenti dalla tipologia e dall’andamento del
conflitto▫Variano secondo la necessità militare
•Indirizzate ai soldati sul campo▫Condizioni e modalità di impiego della forza▫Norme imperative più che descrittive
Etica e robotica
•Roboethics▫Etica di progettisti, costruttori ed utenti di
sistemi robotici▫Diversi progetti internazionali (Ethicbots)
•Aspetti sociali ▫Ricadute sulla società umana▫Robot come agente morale? (Floridi,
Sullins)
ResponsabilitàAttribuzione
•Il robot attuale non può essere portatore di responsabilità▫Morale: assenza di intenzionalità e
consapevolezza▫Oggettiva: impossibile un sistema
sanzionatorio•La responsabilità va ascritta a una
persona (fisica o giuridica)▫Progettisti, programmatori, produttori▫Venditori, certificatori, assicuratori▫Utilizzatori
ResponsabilitàJus in bello
•Discriminazione▫I bersagli militari vanno individuati con
precisione•Proporzionalità
▫La forza impiegata deve essere adeguata al bersaglio
•Necessità di responsabilità oggettiva▫Bisogna poter identificare gli autori delle
azioni militari
Un’architettura roboticaArkin (2007)
Behaviour based/deliberativa
Critiche• Molti aspetti sono trattati in modo superficiale• Per alcune componenti vengono solo indicate
delle alternative off-the-shelf senza ulteriori specifiche
• Nessun dettaglio sulla formalizzazione dei vincoli▫ Sistema DEAL (Van den Hoven, et. al. 2002)
Basato su logiche modali e action logic Nessuna implementazione disponibile Mancano studi sulle interazioni tra i vari operatori
▫ Framework Athena (Arkoudas, Bringsjord, 2005) Logica utilitaristica multi-agente (Horty, 2001) Può impiegare diversi ATP Complessità computazionale ignota.
Ipotesi di teoria logicaScelte preliminari
• Regole basate su ROE (Desert Storm)1) Non attaccare chiunque sia ferito, si sia arreso o non sia un combattente.2) Considera un bersaglio valido chiunque punti un’arma e non sia un
commilitone.3) Considera un bersaglio valido chiunque ti attacchi.4) Restringi l’attacco solo al bersaglio valido correttamente identificato.5) Se il bersaglio è valido e tracciato con certezza, devi attaccare.
• Logica deontica TD (von Wright)▫ Operatori di obbligo () e permesso ()▫ Assiomi
T: p→p D: p→p
Predicati dipendenti dalla sensoristica Un unico grado di libertà (Fire)
Ipotesi di teoria logicaAssiomatizzazione
• Teoria logica iniziale▫ 1.1. x (Frd(x)→(Trg(x))▫ 1.2. x (Wou(x)→(Trg(x)) ▫ 1.3. x (Sur(x)→(Trg(x))▫ 2.1. x ((Aim(x)Frd(x))→Trg(x))▫ 2.2. x ((Atk(x)Frd(x))→Trg(x))▫ 3. x (Trg(x)→Fire(x))▫ 4. x (Fire(x)Clr(x))Fire(x))
Ipotesi di teoria logicaProgramma logico1. ONot_Trg(x)Frd(x)2. ONot_Trg(x)Wou(x)3. ONot_Trg(x)Sur(x)4. Not_Trg(x)ONot_Trg(x)5. OTrg(x)Aim(x)Not_Frd(x)6. OTrg(x)Atk(x)Not_Frd(x)7. Trg(x)OTrg(x)8. PFire(x)Trg(x)9. OFire(x)PFire(x)Clr(x)
Eliminate le negazioni
Eliminati gli operatori deontici
Clausole per realizzare l’assioma T
Dimostrata l’equivalenza tra la teoria ed il programma
Complessità comp. è polinomiale [Vardi 1996, Immerman 1986, Dantsin 2001]
PercezioneRisultati di benchmark
Test M-ELROB Riconosciuto dal consorzio
EURON Ricognizione, individuazione
bersagli, controllo perimetro Ambiente urbano ed extra-
urbano Nessun sistema ottiene buoni
risultati nella target detection Solo due sistemi non ottengono
un punteggio nullo nella prova diurna
Nella prova notturna, tutti i sistemi ottengono punteggio nullo
PercezioneGesture recognition Prestazioni di un sistema di esempio (Kai,
Stiefelhagen, 2006) Analisi di gesti di puntamento basati su movimento
di testa e mani Combinazione di HMM (mani) e reti neurali (testa) Ambiente indoor, valutazione off-line
Testa-mano Avambraccio Orientamento testa
Errore angolare medio 25° 39° 22°
Bersagli identificati 90% 73% 75%
Recall (%) Precision (%) Error (°)
Senza orientamento testa 79.8 73.6 19.4
Orientamento testa con sensore 78.3 86.3 16.8
Orientamento testa con ANN 78.3 87.1 16.9
Conclusioni• La questione dei vincoli non appare intrattabile• Il ragionamento deve basarsi su dati veri e certi• I sistemi percettivi non forniscono attualmente le
prestazioni richieste• Senza correttezza della percezione e del
ragionamento nessun vincolo morale potrà dirsi correttamente soddisfatto
• Riteniamo immorale la costruzione e l’utilizzazione in guerra di robot autonomi basati su queste tecnologie
“Il mondo del futuro sarà una battaglia sempre più impegnativa contro le limitazioni della nostra intelligenza, non un’amaca confortevole su cui distenderci, serviti dai nostri schiavi meccanici.Aiutarci possono, ma chiedendo moltissimo alla nostra onestà ed intelligenza. Il mondo del futuro sarà una battaglia sempre più impegnativa contro le limitazioni della nostra intelligenza, non un’amaca confortevole su cui distenderci, serviti dai nostri schiavi meccanici”.
Norbert Wiener