rationale agenten. agenten agent: nimmt umgebung über sensoren wahr und beeinflusst diese durch...

25
Rationale Agenten

Upload: juliane-kellen

Post on 05-Apr-2015

114 views

Category:

Documents


3 download

TRANSCRIPT

Page 1: Rationale Agenten. Agenten Agent: Nimmt Umgebung über Sensoren wahr und beeinflusst diese durch Aktuatoren. Rationaler Agent: Maximiert Erfolgskriterium

Rationale Agenten

Page 2: Rationale Agenten. Agenten Agent: Nimmt Umgebung über Sensoren wahr und beeinflusst diese durch Aktuatoren. Rationaler Agent: Maximiert Erfolgskriterium

Agenten

• Agent: Nimmt Umgebung über Sensoren wahr und beeinflusst diese durch Aktuatoren.

• Rationaler Agent: Maximiert Erfolgskriterium

• Was sind

1. Sensoren,

2. Aktuatoren,

3. Umgebung,

4. Erfolgskriterium?

Page 3: Rationale Agenten. Agenten Agent: Nimmt Umgebung über Sensoren wahr und beeinflusst diese durch Aktuatoren. Rationaler Agent: Maximiert Erfolgskriterium

Agenten: Beispiele

• Roboter:1. Sensoren: Kamera, taktile Sensoren2. Aktuator: Greifer3. Umgebung: Schraube, Gewinde4. Erfolgskriterium: Schraube eindrehen

• Autonomes Fahrzeug:1. Sensoren: Laser range scanner, GPS2. Aktuatoren: Räder3. Umgebung: Wüste4. Erfolgskriterium: Ziel schnell erreichen

Page 4: Rationale Agenten. Agenten Agent: Nimmt Umgebung über Sensoren wahr und beeinflusst diese durch Aktuatoren. Rationaler Agent: Maximiert Erfolgskriterium

Agenten: Beispiele

• Spielautomat:1. Sensoren: Knöpfe, Hebel2. Aktuatoren: Z.B. Bildschirm, Zahlenräder, Glocke 3. Umgebung: Spieler4. Erfolgskriterium: Spaß machen + Geld abnehmen

• Expertensystem („Software-Agent“):1. Sensoren: Datenempfang2. Aktuatoren: Versenden von Daten3. Umgebung: Ratsuchender4. Erfolgskriterium: Nach wenigen Anfragen richtige

Auskunft geben

Page 5: Rationale Agenten. Agenten Agent: Nimmt Umgebung über Sensoren wahr und beeinflusst diese durch Aktuatoren. Rationaler Agent: Maximiert Erfolgskriterium

Agenten: Beispiele

Staubsaugerwelt:

• Umgebung: Felder A, B, ggf. mit Schmutz• Sensoren: Für Position und Schmutz• Aktuator: Nach rechts / links bewegen,

Sauger

Page 6: Rationale Agenten. Agenten Agent: Nimmt Umgebung über Sensoren wahr und beeinflusst diese durch Aktuatoren. Rationaler Agent: Maximiert Erfolgskriterium

Agentenfunktion / Agentenprogramm

• Agentenfunktion wählt Aktion in Abhängigkeit von der Wahrnehmungsfolge aus– Kann im Prinzip als Lookup Table dargestellt werden

…– … die aber i.a. sehr groß ist.

• Agentenprogramm implementiert die Agentenfunktion (irgendwie)– Programm ersetzt die Tabelle– Leistet i.a. „Datenkompression“ der Tabelle durch

Aufstellen (häufig impliziter) Regeln

Page 7: Rationale Agenten. Agenten Agent: Nimmt Umgebung über Sensoren wahr und beeinflusst diese durch Aktuatoren. Rationaler Agent: Maximiert Erfolgskriterium

Agentenfunktion der Staubsaugerwelt

Wahrnehmungsfolge Aktion

A, sauber Rechts

A, schmutzig Saugen

B, sauber Links

B, schmutzig Saugen

… …

B, schmutzig, B, sauber Links

B, sauber, B, sauber, B, sauber Links

B, sauber, B, sauber, B, schmutzig Saugen

100x (B, sauber) Saugen

Page 8: Rationale Agenten. Agenten Agent: Nimmt Umgebung über Sensoren wahr und beeinflusst diese durch Aktuatoren. Rationaler Agent: Maximiert Erfolgskriterium

Bemerkungen

• Tabelle unendlich groß, da beliebig lange Wahrnehmungsfolgen!

• Je nach den gewählten Aktionen muss nicht unbedingt jede Zeile der Tabelle zur Anwendung kommen

• Einfacher: Agentenprogramm• Da Tabelle jede mögl. Wahrnehmungsfolge abdeckt,

können im Prinzip beliebig komplexe Agentenfunktionen realisiert werden, die vergangene Wahrnehmungen einbeziehen (Bsp. letzte Zeile) und nicht leicht durch Programm (Regeln) zu erfassen sind.

Page 9: Rationale Agenten. Agenten Agent: Nimmt Umgebung über Sensoren wahr und beeinflusst diese durch Aktuatoren. Rationaler Agent: Maximiert Erfolgskriterium

Agentenprogramm für Staubsaugerwelt

Achtung:• Programm implementiert nur sehr einfache

Agentenfunktion, die vergangene Wahrnehmungen nicht berücksichtigt.

• D.h. wenn z.B. alle sauber, oszilliert der Sauger zwischen den Feldern

Aktuelle Wahrnehmung Aktion

A oder B, schmutzig Saugen

A, sauber Rechts

B, sauber Links

Page 10: Rationale Agenten. Agenten Agent: Nimmt Umgebung über Sensoren wahr und beeinflusst diese durch Aktuatoren. Rationaler Agent: Maximiert Erfolgskriterium

Typisierung von Umgebungen

• Grad der Beobachtbarkeit

• Deterministisch / Stochastisch

• Episodisch / Sequenziell

• Statisch / Dynamisch

• Diskret / Stetig

• Einzelagent / Multiagenten

Page 11: Rationale Agenten. Agenten Agent: Nimmt Umgebung über Sensoren wahr und beeinflusst diese durch Aktuatoren. Rationaler Agent: Maximiert Erfolgskriterium

Grad der Beobachtbarkeit

• Problem: Was erfassen die Sensoren?

• Staubsauger: • Position des Saugers• Zustand des aktuellen / benachbarten Feldes

• Zwei Arten von teilweiser Beobachtbarkeit:– Teil der Umgebung ist unzugänglich für

Sensoren (z.B. Nachbarfeld)– Beobachtung ist ungenau (z.B. Sensor

verschmutzt)

Page 12: Rationale Agenten. Agenten Agent: Nimmt Umgebung über Sensoren wahr und beeinflusst diese durch Aktuatoren. Rationaler Agent: Maximiert Erfolgskriterium

Deterministisch / Stochastisch

• Deterministisch: Zukünftiger Zustand der Umgebung hängt allein

vom gegenwärtigen Zustand + den Aktionen ab• Stochastisch: Umgebung enthält Zufallselemente, ihre

Entwicklung ist daher auch bei vollständiger Beobachtung nicht vorhersagbar

• Praxis: Umgebung ist nicht vollständig beobachtbar und

erscheint daher stochstisch

Page 13: Rationale Agenten. Agenten Agent: Nimmt Umgebung über Sensoren wahr und beeinflusst diese durch Aktuatoren. Rationaler Agent: Maximiert Erfolgskriterium

Episodisch / Sequenziell

• Episodisch:– Zeit verläuft in „atomaren Episoden“– Wahrnehmung – Aktion – Wahrnehmung – …– Nächste Episode nur abh. von gegenwärtiger Episode (d.h.

Wahrnehmung + Aktion), d.h.:• Außer den Aktionen des Agenten und den vorhersehbaren

Reaktionen der Umgebung passiert nichts zwischen den Wahrnehmungen

• Aktionen beeinflussen die Umgebung nur für die nächste Episode, nicht für spätere

– Bsp.: Teile auf Fließband aussortieren

• Sequenziell:– Aktionen beinflussen Zukunft– Agent muss vorausdenken

Page 14: Rationale Agenten. Agenten Agent: Nimmt Umgebung über Sensoren wahr und beeinflusst diese durch Aktuatoren. Rationaler Agent: Maximiert Erfolgskriterium

Statisch / Dynamisch

• Statisch: Umgebung ändert sich nur durch Aktionen des Agenten

• Dynamisch: Umgebung ändert sich auch unabhängig von den Aktionen, z.B. auch wenn der Agent nicht beobachtet!

Page 15: Rationale Agenten. Agenten Agent: Nimmt Umgebung über Sensoren wahr und beeinflusst diese durch Aktuatoren. Rationaler Agent: Maximiert Erfolgskriterium

Diskret / Stetig

• Betrifft– Zeit– Wahrnehmungen– Aktionen

• Bsp.:– Schach: Diskrete Zeit, Wahrnehmungen, Aktionen– Schachfigur setzen: Stetige Zeit, stetige

Wahrnehmungen (z.B. Druck der Figur auf Finger), stetige Aktionen (Muskeln steuern)

• Technisch meist diskrete Darstellung stetiger Vorgänge (z.B. Kamera mit 25 frames/sec)

Page 16: Rationale Agenten. Agenten Agent: Nimmt Umgebung über Sensoren wahr und beeinflusst diese durch Aktuatoren. Rationaler Agent: Maximiert Erfolgskriterium

Einzelagent / Multiagenten

Unterscheide:

• Kooperative Multiagenten

• Konkurrierende Agenten

• Realwelt: Häufig Mischungen

Bsp. Autorennen:– Crashvermeidung – Kooperation– Geschwindigkeit – Konkurrenz

Page 17: Rationale Agenten. Agenten Agent: Nimmt Umgebung über Sensoren wahr und beeinflusst diese durch Aktuatoren. Rationaler Agent: Maximiert Erfolgskriterium

Agentenprogrammierung

• Agentenfunktion definiert Verhalten

• Programm realisiert dieses Verhalten

• Programm leitet Aktion nur aus aktueller Wahrnehmung ab, nicht aus der Wahrnehmungsfolge!

• Wird damit Abhängigkeit der Aktionen von der Vergangenheit aufgegeben?

• - Nein, denn es steht dem Programm frei,– vergangene Wahrnehmungen zu speichern

– andere Informationen (z.B. Extrakt aus Wahrnehmungen, vergangene Aktionen) zu speichern.

Page 18: Rationale Agenten. Agenten Agent: Nimmt Umgebung über Sensoren wahr und beeinflusst diese durch Aktuatoren. Rationaler Agent: Maximiert Erfolgskriterium

Typisierung der Agentenprogrammierung

1. Einfacher Reflex-Agent

2. Modellbasierter Reflex-Agent

3. Zielbasierter Agent

4. Nutzenbasierter Agent

5. Lernender Agent

Beschreibung wird von 1 nach 5 weniger detailliert:

Def. des Reflex-Agenten liefert Bauplan praktisch mit,

Lernende Agenten sind sehr komplex!

Page 19: Rationale Agenten. Agenten Agent: Nimmt Umgebung über Sensoren wahr und beeinflusst diese durch Aktuatoren. Rationaler Agent: Maximiert Erfolgskriterium

Einfache Reflex-Agenten• Aktion hängt nur von aktueller

Wahrnehmung ab, nicht von Vergangenheit

• Kein Gedächtnis

Page 20: Rationale Agenten. Agenten Agent: Nimmt Umgebung über Sensoren wahr und beeinflusst diese durch Aktuatoren. Rationaler Agent: Maximiert Erfolgskriterium

Reflex-Agenten• Vorteile:

– Einfach– Ggf. schnelle Reaktion (Hardware!)

• Nachteile:– Versagt, wenn aktuelle Wahrnehmung zur

Entscheidungsfindung nicht ausreicht (teilweise Beobachtbarkeit)

– Gleiche Wahrnehmungen führen immer zu gleichen Reaktionen: Gefahr von Endlosschleifen

– Bsp. Staubsauger ohne Positionssensor:• Starte in A• Wahrnehmung: Schmutz, Reflex: Saugen!• Wahrnehmung: Sauber, Reflex: Rechts!• Wahrnehmung: Sauber, Reflex: Rechts! usw.

Page 21: Rationale Agenten. Agenten Agent: Nimmt Umgebung über Sensoren wahr und beeinflusst diese durch Aktuatoren. Rationaler Agent: Maximiert Erfolgskriterium

Modellbasierte Reflex-Agenten

• Erweiterung: Agent hat „inneren Zustand“• Zustände speichern Informationen über

– Zeitliche Entwicklung der Umgebung (unabh. von Aktionen)– Wirkung der Aktionen (soweit nicht dauerhaft beobachtbar)

• Aber: Keine „innere Simulation“

Page 22: Rationale Agenten. Agenten Agent: Nimmt Umgebung über Sensoren wahr und beeinflusst diese durch Aktuatoren. Rationaler Agent: Maximiert Erfolgskriterium

Zielbasierte Agenten

• Bisher wurde Ziel implizit in den Regeln codiert• Jetzt: Zieldefinition• Aktion ist nicht mehr fest an Regeln gebunden,

sondern wird aus Überlegung „was passiert wenn“ abgeleitet

Page 23: Rationale Agenten. Agenten Agent: Nimmt Umgebung über Sensoren wahr und beeinflusst diese durch Aktuatoren. Rationaler Agent: Maximiert Erfolgskriterium

Nutzenbasierte Agenten

• Nachteil zielbasierter Agenten: – „Binäre“ Zieldefinition

– Jede Entscheidung, die (irgendwie) zum Ziel führt, ist ok.

• Nutzenfunktion ordnet aktuellen oder zukünftigen Zuständen (reelle) Bewertungen zu, die Nützlichkeit zum Erreichen des Ziels angeben.

• Vorteil: Günstige Wege zum Ziel können von ungünstigen unterschieden werden

• Nachteil: Aufstellen der Nutzenfunktion verlangt viel Information

Page 24: Rationale Agenten. Agenten Agent: Nimmt Umgebung über Sensoren wahr und beeinflusst diese durch Aktuatoren. Rationaler Agent: Maximiert Erfolgskriterium

Nutzenbasierte Agenten

Page 25: Rationale Agenten. Agenten Agent: Nimmt Umgebung über Sensoren wahr und beeinflusst diese durch Aktuatoren. Rationaler Agent: Maximiert Erfolgskriterium

Lernende Agenten• Leistungselement = Einer der vier anderen Agententypen• Lernelement: Verändert Leistungselement gemäß Kritik• Kritik: Feedback über Resultate der Aktionen, wird gewonnen durch

Vergleich des erreichten Zustands der Umwelt (durch Sensoren ermittelt) und Leistungsbewertung.

• Problemgenerator: Bewirkt Aktionen, die nicht unbedingt zum Ziel führen, aber Erfahrungen ermöglichen