i robot soldati

Post on 13-Jan-2016

67 Views

Category:

Documents

0 Downloads

Preview:

Click to see full reader

DESCRIPTION

I Robot Soldati. Unmanned Vehicles. Droni radio/tele guidati Ampiamente diffusi Nessuna autonomia Ancora pochi gli esemplari dotati di armi Eye-on-target. Unmanned Aerial Vehicles. Unmanned Aerial Vehicles. Unmanned Ground Vehicles. Unmanned Ground Vehicles. Unmanned Undersea Vehicles. - PowerPoint PPT Presentation

TRANSCRIPT

I Robot Soldati

Unmanned Vehicles

•Droni radio/tele guidati•Ampiamente diffusi•Nessuna autonomia•Ancora pochi gli esemplari dotati di armi•Eye-on-target

Unmanned Aerial Vehicles

Unmanned Aerial Vehicles

Unmanned Ground Vehicles

Unmanned Ground Vehicles

Unmanned Undersea Vehicles

Unmanned Surface Vehicles

Dispositivi autonomi (CIWS)

Progetti avanzati

•Ancora allo stadio prototipale•Primi sistemi con alto grado di autonomia•Impieghi in contesti peculiari

Progetti avanzati - Crusher

Progetti avanzati – SGR-A1

Progetti avanzati - RoboSnake

Progetti avanzati - BigDog

Autonomous Military AgentPro

•Minimizzazione delle perdite umane•Diminuzione dei costi della guerra•Il basso numero di perdite favorisce il

consenso•Missioni dull, dirty and dangerous•Immuni a emozioni e bisogni umani•Non inclini a commettere atrocità inutili•Proiettati ad avere prestazioni migliori

dell’uomo (?)

Autonomous Military AgentContro

• Ricorso più facile all’azione militare• Progressivo abbandono della diplomazia• Maggiori perdite e danni per il nemico• I civili possono divenire obiettivi militari• Riskless war

▫Il reciproco rischio giustifica moralmente i contendenti

▫Il rischio asimmetrico è proprio delle operazioni di polizia (buoni vs. cattivi)

▫Il contendente più debole deve trovare altri modi di colpire (terrorismo)

EticaTeoria deontologica

•Valuta l’azione a priori▫Moralità di intenzione o norma da cui origina

l’azione▫Un’azione è morale se è prodotta da “buona”

intenzione▫I mezzi ed i fini sono strettamente correlati

• Imperativo categorico (Kant)▫“agisci solo secondo la massima per la quale

puoi e allo stesso tempo vuoi che questo diventi una legge universale” (universalismo)

•Leggi della Robotica (Asimov)

EticaTeoria teleologica

•Valuta gli effetti dell’azione▫ Un’azione è morale se produce effetti aumento del

“bene” o diminuzione del “male”▫ Il fine giustifica i mezzi

•Consequenzialismo▫ Criteri razionali per giudicare positività o negatività

delle azioni• Utilitarismo

▫ “Utilità” è la misura di felicità/piacere/benessere▫ Dolore/piacere (Bentham)▫ Benessere sociale è somma del piacere individuale▫ Giustizia è massimizzazione del benessere sociale

Etica e guerraLeggi di Guerra (L.O.W.)

•Suddivisione giurisprudenziale▫ Jus ad bellum – entrata in guerra ed uso della forza

militare▫ Jus in bello – condotta durante i conflitti▫ Jus post bellum – trattamento prigionieri, occupazione

territori

•Convenzioni internazionali▫ Convenzioni dell’Aia (1899-1907)▫ Convenzioni di Ginevra (1949-1977)

•In Italia “Legge di Guerra e Neutralità”▫ R.D. 8 luglio 1938

Etica e guerraRegole d’Ingaggio (R.O.E.)

•Emanate dai vertici militari▫Applicazione pratica dello jus in bello▫Derivano dalle leggi internazionali e nazionali▫Dipendenti dalla tipologia e dall’andamento del

conflitto▫Variano secondo la necessità militare

•Indirizzate ai soldati sul campo▫Condizioni e modalità di impiego della forza▫Norme imperative più che descrittive

Etica e robotica

•Roboethics▫Etica di progettisti, costruttori ed utenti di

sistemi robotici▫Diversi progetti internazionali (Ethicbots)

•Aspetti sociali ▫Ricadute sulla società umana▫Robot come agente morale? (Floridi,

Sullins)

ResponsabilitàAttribuzione

•Il robot attuale non può essere portatore di responsabilità▫Morale: assenza di intenzionalità e

consapevolezza▫Oggettiva: impossibile un sistema

sanzionatorio•La responsabilità va ascritta a una

persona (fisica o giuridica)▫Progettisti, programmatori, produttori▫Venditori, certificatori, assicuratori▫Utilizzatori

ResponsabilitàJus in bello

•Discriminazione▫I bersagli militari vanno individuati con

precisione•Proporzionalità

▫La forza impiegata deve essere adeguata al bersaglio

•Necessità di responsabilità oggettiva▫Bisogna poter identificare gli autori delle

azioni militari

Un’architettura roboticaArkin (2007)

Behaviour based/deliberativa

Critiche• Molti aspetti sono trattati in modo superficiale• Per alcune componenti vengono solo indicate

delle alternative off-the-shelf senza ulteriori specifiche

• Nessun dettaglio sulla formalizzazione dei vincoli▫ Sistema DEAL (Van den Hoven, et. al. 2002)

Basato su logiche modali e action logic Nessuna implementazione disponibile Mancano studi sulle interazioni tra i vari operatori

▫ Framework Athena (Arkoudas, Bringsjord, 2005) Logica utilitaristica multi-agente (Horty, 2001) Può impiegare diversi ATP Complessità computazionale ignota.

Ipotesi di teoria logicaScelte preliminari

• Regole basate su ROE (Desert Storm)1) Non attaccare chiunque sia ferito, si sia arreso o non sia un combattente.2) Considera un bersaglio valido chiunque punti un’arma e non sia un

commilitone.3) Considera un bersaglio valido chiunque ti attacchi.4) Restringi l’attacco solo al bersaglio valido correttamente identificato.5) Se il bersaglio è valido e tracciato con certezza, devi attaccare.

• Logica deontica TD (von Wright)▫ Operatori di obbligo () e permesso ()▫ Assiomi

T: p→p D: p→p

Predicati dipendenti dalla sensoristica Un unico grado di libertà (Fire)

Ipotesi di teoria logicaAssiomatizzazione

• Teoria logica iniziale▫ 1.1. x (Frd(x)→(Trg(x))▫ 1.2. x (Wou(x)→(Trg(x)) ▫ 1.3. x (Sur(x)→(Trg(x))▫ 2.1. x ((Aim(x)Frd(x))→Trg(x))▫ 2.2. x ((Atk(x)Frd(x))→Trg(x))▫ 3. x (Trg(x)→Fire(x))▫ 4. x (Fire(x)Clr(x))Fire(x))

Ipotesi di teoria logicaProgramma logico1. ONot_Trg(x)Frd(x)2. ONot_Trg(x)Wou(x)3. ONot_Trg(x)Sur(x)4. Not_Trg(x)ONot_Trg(x)5. OTrg(x)Aim(x)Not_Frd(x)6. OTrg(x)Atk(x)Not_Frd(x)7. Trg(x)OTrg(x)8. PFire(x)Trg(x)9. OFire(x)PFire(x)Clr(x)

Eliminate le negazioni

Eliminati gli operatori deontici

Clausole per realizzare l’assioma T

Dimostrata l’equivalenza tra la teoria ed il programma

Complessità comp. è polinomiale [Vardi 1996, Immerman 1986, Dantsin 2001]

PercezioneRisultati di benchmark

Test M-ELROB Riconosciuto dal consorzio

EURON Ricognizione, individuazione

bersagli, controllo perimetro Ambiente urbano ed extra-

urbano Nessun sistema ottiene buoni

risultati nella target detection Solo due sistemi non ottengono

un punteggio nullo nella prova diurna

Nella prova notturna, tutti i sistemi ottengono punteggio nullo

PercezioneGesture recognition Prestazioni di un sistema di esempio (Kai,

Stiefelhagen, 2006) Analisi di gesti di puntamento basati su movimento

di testa e mani Combinazione di HMM (mani) e reti neurali (testa) Ambiente indoor, valutazione off-line

Testa-mano Avambraccio Orientamento testa

Errore angolare medio 25° 39° 22°

Bersagli identificati 90% 73% 75%

Recall (%) Precision (%) Error (°)

Senza orientamento testa 79.8 73.6 19.4

Orientamento testa con sensore 78.3 86.3 16.8

Orientamento testa con ANN 78.3 87.1 16.9

Conclusioni• La questione dei vincoli non appare intrattabile• Il ragionamento deve basarsi su dati veri e certi• I sistemi percettivi non forniscono attualmente le

prestazioni richieste• Senza correttezza della percezione e del

ragionamento nessun vincolo morale potrà dirsi correttamente soddisfatto

• Riteniamo immorale la costruzione e l’utilizzazione in guerra di robot autonomi basati su queste tecnologie

“Il mondo del futuro sarà una battaglia sempre più impegnativa contro le limitazioni della nostra intelligenza, non un’amaca confortevole su cui distenderci, serviti dai nostri schiavi meccanici.Aiutarci possono, ma chiedendo moltissimo alla nostra onestà ed intelligenza. Il mondo del futuro sarà una battaglia sempre più impegnativa contro le limitazioni della nostra intelligenza, non un’amaca confortevole su cui distenderci, serviti dai nostri schiavi meccanici”.

Norbert Wiener

top related