The Symbol Grounding Problem · 2016. 4. 26. · 1.1. Caspar Hauser Syndrom Am 26. Mai 1828 wurde...
Transcript of The Symbol Grounding Problem · 2016. 4. 26. · 1.1. Caspar Hauser Syndrom Am 26. Mai 1828 wurde...
-
Institut für Psychologie
Leopold Franzens Universität Innsbruck
Studienkennzahl: C298 / Psychologie
The Symbol Grounding Problem
Forschungsseminar:
Neuere psychologische Fachliteratur (Gruppe D)
SS 2007
Seminarleiter: Dr. Karl Leidlmair
Aufderklamm Lisa Maria 0416296
Caroline Gurschler 0438246
-
Inhaltsverzeichnis
1. Einleitung
1.1. Kaspar Hauser
1.2. Natürliche Sprache
2. Annäherung an das Problem in der Geschichte der
Psychologie
2.1. Vom Behaviorismus zum Kognitivismus
2.2. Symbolsysteme
3. Das Symbol Grounding Problem
3.1. Das Chinesische Zimmer
4. Searle, Dreyfus, Harnad
4.1. John Searle
4.2. Hubert Dreyfus
4.3. Stevan Harnad
5. Autonome Agenten
5.1. AIBO
6. Resümee
7. Literaturverzeichnis
-
1.Einleitung:
1.1. Caspar Hauser Syndrom
Am 26. Mai 1828 wurde in Nürnberg ein etwa 16-
jähriger, verwahrlost aussehender Junge gefunden,
der kaum sprechen konnte. Man brachte ihn zur
Polizeiwache, und nannte ihn „Kaspar Hauser“. Er
konnte lediglich zwei Sätze sagen: „Wos net“ und
„So ein Reiter möcht ich werden wie mein Vater“.
Sein Zustand erregte das Interesse von zahlreichen
Wissenschaftlern, die verschiedene Untersuchungen mit ihm
durchführten. Er bekam nun auch Unterricht im Sprechen. Sein
Hauptvormund Paul Johann Anselm Ritter von Feuerbach
beschrieb, dass Kaspar anfangs nur Brot und Wasser zu sich
nahm. Vor anderen Speisen ekelte er sich. Es wurde vermutet,
dass Kaspar Hauser lange Zeit einsam in einem dunklen Verlies
gefangen gehalten wurde und dort ohne Kontakt zur Außenwelt
lebte.
Auch in der Psychologie und Medizin kennt man das so genannte
Kaspar-Hauser-Syndrom. Es tritt bei Babies und Kleinkindern
auf, die lange Zeit ohne persönlichen Kontakt und ohne
liebevolle Zuwendung aufwuchsen und zugleich kaum soziale oder
kognitive Anregung erhielten.
Die Geschichte von Kaspar Hauser ist ein gutes Beispiel für
das Thema, welches wir in dieser Arbeit behandeln werden. Wir
beschäftigen uns in dieser Arbeit mit dem „Symbol Grounding
Problem“. Es geht grob formuliert darum, wie fremde Symbole
eine Bedeutung bekommen? Ferner geht es auch darum wie eine
Software mit einer bestimmten Pixelverteilung, die am
Bildschirm als „ja“ erscheint zur Bedeutung? Bekommt dieses
http://upload.wikimedia.org/wikipedia/commons/2/2f/Kaspar_hauser.jpg
-
„Ja“ seine Bedeutung erst durch den Menschen, der das Symbol
liest?
Die Standartantwort auf die Frage, woher Symbole ihre
Bedeutung haben ist, dass wir die Symbole in der richtigen Art
und Weise mit der Welt in Verbindung setzen oder dass sie
durch soziale Interaktion Bedeutung erhalten.
Diese Symbole sind also in der Umwelt des Menschen verankert.
Menschliche Symbole haben folglich immer einen Bezug zur
Umwelt, die uns Menschen zugänglich ist.
1.2. Natürliche Sprache
Unsere natürliche Sprache ist ein dynamisches System. Was
bedeutet, dass neue Worte auftauchen gehen verloren und die
Bedeutung verändert sich auf kultureller und individueller
Ebene. Der Sprachegebrauch einer einzelnen Person entwickelt
und ändert sich im Laufe des Lebens.
Wie vielleicht jedem bekannt ist, kennzeichnet gerade die
Sprache bestimmte Generationen oder soziale Milieus.
Sprache verändert sich also, und aufgrund dieser Dynamik muss
der Versuch scheitern, natürliche Sprache mit statistischen
Grammatiken zu erzeugen. Demzufolge muss die Wissenschaft
andere ausführlichere Modelle finden, die in der Lage sind
diese Dynamik zu berücksichtigen. Da die Evolution von Sprache
nicht wie die von Lebensformen auf genetischer, sondern auf
kultureller Ebene stattfindet, bietet sich die Untersuchung
der Dynamik innerhalb von Populationen an.
Es stellen sich nu zwei Fragen:
1. Wie lernt der Mensch den Gebrauch von Sprache?
2. Wie hat sich Sprache an sich entwickelt?
Dabei interessiert man sich nicht für Geräusche, Ausdrücke,
Zeichen oder etwa die Grammatik, sondern vielmehr Entstehung
von Bedeutung.
-
2. Annäherung an das Problem in der Geschichte der
Psychologie:
2.1. Vom Behaviorismus zum Kognitivismus
Für viele Jahre war die einzige empirische Annäherung an diese
Problematik in der Psychologie auf behavioristischer Grundlage
möglich. Der Behaviorismus vertrat den Standpunkt, dass es
nicht erlaubt sei, Theorien darüber zu bilden, was im Kopf
vorgeht, wenn ein bestimmtes Verhalten gezeigt wird oder
darüber was in den Köpfen und Gedanken überhaupt Eingang
findet. Nur Beobachtbares war Gegenstand des Behaviorismus.
Unter dem Begriff Behaviorismus werden alle die
Forschungsprogramme zusammengefasst, die sich der
naturwissenschaftlichen, objektiven und experimentellen
Methodik verschrieben haben. Es liegt also nahe, dass man sich
unter der Maxime des Behaviorismus nicht oder nur kaum mit der
Problematik des „Symbol Grounding Problems“ beschäftigen
konnte.
Erst mit der kognitiven Wende wurde akzeptiert, auch
unbeobachtbare Prozesse zu untersuchen. Die Kognitive Wende
war eine Entwicklung um 1950 innerhalb der Paradigmen der
psychologischen „scientific community“ vom Behaviorismus hin
zum Kognitivismus. Dadurch wurde aber auch der Weg für den
Einzug subjektiver Interpretationen in die Wissenschaft
geebnet.
Die Wirkung der Kognitionswissenschaft ging jedoch weit über
die Psychologie hinaus. Kognitionswissenschaftler findet man
heute außer in der Psychologie auch in der Linguistik, der
Philosophie, der Computerwissenschaft, der Physik, der
Mathematik, der Anthropologie, der Soziologie und der
Hirnforschung.
-
Auch die semantische Interpretierbarkeit, wie wir sie heute
kennen, wurde vom theoretischen Vokabular des Kognitivismus
bestimmt. Dieses Gebiet ist eines der wichtigsten und
zentralsten des Kognitivismus. Das Werk „The language of
thought“ von Fodor (1975) galt für lange Zeit als das
wichtigste Werk der Cognitive Theory.
Fodor hat unter Zuhilfenahme verschiedener Elemente aus der
Philosophie des Geistes und den Kognitionswissenschaften eine
komplexe Theorie des Geistes entwickelt, die er selbst
"repräsentational" nennt.
Zu Fodors repräsentationaler Theorie des Geistes gehört auch
die Annahme einer Sprache des Geistes (language of thought):
Der Geist arbeite mit mentalen Repräsentationen, die nach
einer mentalen Syntax zu Gedanken zusammengesetzt werden.
An Fodors repräsentationaler Theorie des Geistes ist in den
letzten Jahrzehnten viel Kritik geäußert worden. Es wird
argumentiert, dass mit dem Konnektionismus ein realistischeres
Modell des Geistes entwickelt worden sei. Der Konnektionismus
verzichtet nämlich auf eine Trennung zwischen Software- und
Hardwareebene: Künstliche neuronale Netze können kognitive
Fähigkeiten simulieren, ohne, dass sie explizite
Repräsentationen oder eine Syntax haben.
Fodor vertritt weiter die These, dass der Verstand ein
Symbolsystem sei und die Kognition, also das Erkennen ist
Symbolhandhabung. Die Möglichkeit des Erzeugens von komplexen
Verhalten durch Symbolhandhabung wurde empirisch durch Erfolge
auf dem Gebiet in der künstlichen Intelligenz (KI) gezeigt.
-
2.2 Symbol-Systeme
Was ist ein Symbolsystem? Nach Newell (1980) Pylyshyn (1984),
Fodor (1987) und der klassischen Arbeit von Neumann, Turing,
Goedel und Church kann man Symbolsysteme wie folgt definieren:
Ein Symbolsystem ist:
1. ein Satz von willkürlichen „physikalischen Zeichen“ also
Kratzer auf Papier, Löcher in einem Band, etc. Diese
sind
2. verändert aufgrund von „expliziten Regeln“, welche
3. physikalische Zeichen oder Zeichenketten sind. Die
Richtlinie zur Handhabung von Symbolen basiert
4. lediglich auf der Form des Symbolzeichens (nicht ihre
„Bedeutung“) d.h. sie ist lediglich syntaktisch und
besteht aus
5. „Kombinationen“ und Wiederverbindenden Symbolzeichen. Es
gibt
6. primitive Symbolzeichen und
7. zusammengesetzte Symbolzeichen, also Zeichenketten. Das
gesamte System und alle seine Teile, also die primitiven,
einfachen Zeichen, die zusammengesetzten Zeichen, die
tatsächlichen und möglichen syntaktischen Handhabungen
und die Richtlinien, sind alle
8. „semantisch erklärbar: “ Der Syntax kann systematisch
eine Bedeutung zugewiesen werden, z.B. für Gegenstände,
für Beschreiben von Sachlagen.
Auch wenn Psychologen heute verstärkt davon ausgehen, dass
sich die menschliche Intelligenz aus Modulen zusammensetzt,
ist es allem Anschein nach nicht damit getan, unterschiedlich
spezialisierte Systeme einfach zusammenzuschalten. Es führt
kein Weg von einem Computer zu den typischen Leistungen
allgemeiner menschlicher Intelligenz. Anders als Fachprogramme
-
oder Expertensysteme sind wir Menschen nicht auf eine einzige
Tätigkeit festgelegt. Wir können nicht nur Schach spielen oder
nur Theoreme beweisen oder nur Krankheiten diagnostizieren.
Wir Menschen können auch viele andere Sachen. Dies bezeichnet
man als Allgemeine Intelligenz.
Ein weiteres Problem von Computersystemen ist es schnell und
adäquat reagieren zu können. Man spricht hierbei von Echtzeit-
Performance. Ein intelligenter Organismus muss sofort
reagieren können und nicht erst dann, wenn er mit seiner
Datenverarbeitung fertig ist. Jedem von uns ist klar, dass die
zentralisierte Informationsverarbeitung in klassischen
seriellen Computern dafür zu langsam und unflexibel ist.
Eines der größten Probleme für Systeme der klassischen
Künstlichen ist das Symbol Grounding Problem. Mit diesem
werden wir uns in unserem Referat beschäftigen. Dabei handelt
es sich um die Frage, wie abstrakte Symbole zu ihrer Bedeutung
in der realen Welt kommen.
-
3. Symbol grounding problem
Mithilfe der heutigen Wissenschaft ist es möglich einem
Roboter beizubringen z. B. eine Flache von da drüben
herzubringen und auf den Tisch zu stellen. Die Technik macht
dies möglich. Das Problem dabei ist, wie man dem Roboter zu
verstehen gibt, was überhaupt eine Flache ist. Man nennt
dieses Problem das „Symbol Grounding Problem“, was aussagt,
dass die Symbole geerdet sein müssen. Was diese Metapher
bedeutet, ist dass das Wissen um die Bedeutung des Symbols in
der Erfahrung verankert sein, ansonsten hängt das Symbol in
der Luft und kann nicht benutzt werden.
Abbildung 1
Auf der linken Seite der Abbildung sieht man dass die
Bedeutungen „grounded“ sind, d. h. sie können mit der Welt in
Verbindung gebracht werden. Auf der rechten Seite hängen die
Symbole in der Luft, sie haben in diesem Fall keinen Bedeutung
für uns.
-
3.1. Chinesisches Zimmer
Das chinesische Zimmer ist ein Gedankenexperiment von John
Searle, mit welchem er zu widerlegen versuchte, dass
menschliche Intelligenz durch Computer nachgeahmt oder sogar
übertroffen werden könne. Searle plädierte dafür, dass der
Turing- Test nicht in der Lage ist künstliche Intelligenz
hinreichend zu beschreiben.
Beim Experiment wird ein geschlossener Raum beschildert, in
dem sich ein Mensch befindet. Durch den Türschlitz bekommt er
von außen mehrer Schriften mit Geschichten in chinesischer
Schrift. Da die Person kein Chinesisch spricht versteht sie
weder die Zeichen, noch den Sinn der Geschichte. Zusätzlich
bekommt er auch noch einige Schriften mit Fragen zu der
Geschichte. Im Zimmer findet er chinesische Skripte und ein
Handbuch mit Regeln in seiner Muttersprache vor. Anhand der
Zeichenerkennungen, kann er die Antworten auf die ihm
gestellten Fragen finden, und schreibt sie auf die Zettel,
ohne die Geschichten oder die Fragen verstanden zu haben.
Vor dem Raum befindet sich ein chinesisch sprechender Mensch,
welcher die Antworten liest und aus den Antworten schließt,
dass sich im verschlossenen Raum ebenfalls ein chinesischer
Muttersprachler befindet.
Abbildung 2
-
Daraus folgt, dass der Raum den Turing- Test besteht, obwohl
die Person die sich im Raum befindet, nicht einmal verstanden
hat, worum es sich handelt. Das Verstehen kann durch die
Regeln nicht geleistet werden, da die Symbole keine
intrinsische Bedeutung haben.
Stevan Harnad nimmt Bezug auf dieses Problem und versucht es
durch das Symbol Grounding zu lösen, d. h. durch die
Verankerung von Symbolen in der Welt.
„Dabei wird das klassische symbolverarbeitende System durch
Sensoren erweitert, die jeweils mit der Welt verbunden sind.
Diese Sensoren können beispielsweise neuronal und damit
insbesondere nichtsymbolisch arbeiten. Mit Hilfe der Sensoren
kann das ehemals rein symbolische System nichtsymbolische
Objekte und Ereignisse unterscheiden und identifizieren und
damit kategorisieren. Basierend auf den nichtsymbolischen
Kategorien können nun weitere symbolische Kategorien gebildet
werden oder auch symbolisch Schlussfolgerungen gezogen werden.
Harnad gibt ein Beispiel, bei dem ein Zebra als ein Pferd mit
Streifen definiert wird, wobei das Pferd und die Streifen
sensorisch verankert sind und das Zebra rein symbolisch aus
diesen gebildet wird.“1
Weiters betont Harnad über Interaktion mit der Umwelt
Erkenntnis erlangen und es deshalb keine explizite
Repräsentation von Wissen innerhalb des Systems geben muss.
Das System ist direkt eingebettet in seine Umwelt.
1 http://bieson.ub.uni-bielefeld.de/ S.22
http://bieson.ub.uni-bielefeld.de/
-
4. Searle, Dreyfus, Harnad
4.1. Searl:
„Intelligenz ist ein mentales Phänomen. Dieses ist nicht
unabhängig von der Hardware (unser Gehirn) – sie braucht
unseren Körper. Somit kann ein Computer nicht intelligent
sein.“
Das von Searle formulierte Unbehagen an computationellen
Modellen führte in den 80er Jahren mit dem sog. Konnektionismus
zu einer Art Paradigmenwechsel. Man merkte, dass die neuronale
Ebene des Gehirns berücksichtigt werden muss, die Fähigkeit
des menschlichen Gehirns, parallel zu arbeiten, also separate
Operationen unabhängig voneinander auszuführen und diese
weitgehend autonomen Operationen permanent miteinander zu
kombinieren z. B. bereits repräsentierte Referenzen im Diskurs
aufeinander zu beziehen.
Die strikte Trennung von mentaler (hardware) und neuronaler
(software) Ebene ist im Konnektionismus aufgehoben, die
Modellierung kognitiver Prozesse ist neuronal, nicht
symbolisch-funktional inspiriert. Konzepte sind im Gedächtnis
nicht isoliert abgespeichert sondern mit anderen Konzepten
verknüpft.
Er geht von der Annahme aus, dass Wissenseinheiten, auch
sprachliches Wissen, nicht ungeordnet, sondern in
systematischen Zusammenhängen und typischen Konstellationen,
wie z. B. Restaurantbesuch, Begrüßung, Immatrikulation etc.
abgespeichert, als Muster wieder erkannt und auf analoge
Situationen angewandt wird.
Verstehen und Sinn beruht damit auf einer vernetzten
Integrationsleistung, mit der wir Texte, Sätze, Wörter und
-
außersprachliche Wissensbestände in unser Bewusstsein
eingliedern. Dieser integrative Prozess ist subjektiv-
individuell, da die Verknüpfungen in neuronalen Netzwerken
nicht vorgegeben sind und sich jeweils selbst organisieren,
aus Erfahrung gelernt haben und weiterhin lernen. Verstehen
ist also nicht eine starre Zuordnung von Text und hierin
objektiv abgebildeter Realität sondern ein subjektiv-
interaktiver Prozess; in ihm erfolgt die mikrosekundenschnelle
Selektion, Verknüpfung und Bearbeitung sprachlicher
Repräsentation (die natürlich z. T. konventionell und
kulturell vorgeprägt ist) sowie deren Integration in die
Handlungszusammenhänge.
Der mit den Symbolen hantierende Mensch, so ist Searles Idee,
ist in derselben Lage, wie ein Computer. Er hat Symbole und
Anleitungen, diese zu kombinieren aber die Bedeutung dieser
Symbole erfährt er nicht. Dass Computer keine Bedeutung
kennen, liegt also nicht etwa daran, dass sie aus
Siliziumchips statt aus biologischer Materie bestehen.
Searle will seine Kritik auch nicht so verstanden wissen, als
sei grundsätzlich keine Maschine in der Lage, eine Sprache zu
verstehen. Er bezieht diese Feststellung nur auf eine
Maschine, deren Verhalten allein durch die formalen Prozesse
der Symbolmanipulation bestimmt ist.
Was die Maschine seiner Ansicht nach leisten müsste, ist
Bewusstsein und Intentionalität zu schaffen. Mit dieser These
stellt er das Programm der KI, kognitive Prozesse durch eben
solche formale Symbolmanipulation zu konstruieren, in Frage.
-
4.2. Dreyfus
Hubert Dreyfus stützte sich bei seiner Kritik am „Symbol
Grounding Problem“ auf Arbeiten der Philosophen Heidegger und
Merleau-Ponty.
Dreyfus führte die Misserfolge bei der Programmierung
intelligenter Rechner darauf zurück, dass es unmöglich sei,
das Alltagswissen des Menschen explizit zu machen und einem
Rechner zur Verfügung zu stellen. Er meint, dass menschliches
Handeln situationsbezogen ist also, dass z.B. Planen in hohem
Maße opportunistisch ist.
Klassisches Planen in der Künstlichen Intelligenz besteht
jedoch darin, dass ein kompletter Plan aufgebaut wird, bevor
dann die so geplante Handlung durchgeführt wird. Notwendig
unberücksichtigt bleibt dabei die Dynamik einer stets im
Wandel begriffenen Welt.
Man kann sich das etwa so vorstellen dass jemand, der, bevor
er eine Autofahrt antritt, anhand der Straßenkarte genauestens
festlegt, wie er fahren wird. Empfehlenswerter ist es aber
sicher, nur grob zu planen und während der Fahrt auf Wegweiser
zu achten denn so kann man vielleicht Staus u.s.w. ausweichen.
Zentral ist der Gedanke, dass kognitive Systeme nicht isoliert
betrachtet werden dürfen, sondern gerade hinsichtlich ihrer
kognitiven Aspekte vor allem in der Interaktion mit ihrer
Umwelt konstituieren. Das Alltagswissen, betonte Dreyfus, sei
nicht in Form von Sätzen oder Regeln gespeichert, es enthalte
vielmehr immer nicht explizierbare Anteile. Diese
»nichtformalisierbaren Formen der ›Datenverarbeitung‹« lassen
sich nach Dreyfus nur von Wesen bewältigen, die einen Körper
haben. Denn es sind seiner Ansicht nach im Wesentlichen
eingeübte körperliche Fähigkeiten, keine regelhaften
Abstraktionen, die Menschen intelligent handeln lassen. Die
Annahme, dass sich alles, was für intelligentes Verhalten
wichtig ist, in formale Regeln fassen lässt, ist demnach
falsch. Es ist wichtig hervorzuheben, dass Dreyfus nicht
-
glaubt, dass die Künstliche Intelligenz grundsätzlich
unmöglich ist. Er meint nur, dass das gegenwärtige
Forschungsprogramm noch nicht so weit ist, da es fehlerhaft
ist. Er meint um ein Gerät mit menschenähnlicher Intelligenz
zu erhalten, ist es nötig diesem Gerät eine menschenähnliche
Existenz zu geben. Solche Intelligenz braucht also einen
Körper wie den Unseren und auch eine soziale Kultur, wie etwa
unsere Gesellschaft.
4.3 Harnad
Stevan Harnad, (geb. 02.06.45 in Budapest) ist ungarischer
Kognitionswissenschaftler mit Professuren in Cognitive Science
an der University of Southampton sowie der Universitè du
Quèbec in Montreal. Seine Forschungsschwerpunkte liegen im
Bereich Kategorisierung, Kommunikation und Kognition.
Harnad erklärt nun das so genannte Symbol Grounding Problem
anhand von 2 Versionen in Bezug auf Searles Modell des
chinesischen Zimmers:
1. Version: Hier soll die Versuchsperson Chinesisch als
zweite Sprache allein mit einem chinesischen Wörterbuch
lernen. Dies ist an sich schon ein äußerst schwieriges, doch
nicht unlösbar, da die Person über eine vorherige Kenntnis von
Sprache wie z.B. Satzbau, Grammatik usw. verfügt und deshalb
die chinesischen Symbolfolgen zumindest als „Worte“ und
„Sätze“ (intrinsische Bedeutung) erkennen kann.
2. Version: Diese Version stellt nun das Dilemma dar. Hierbei
soll Chinesisch allein mit Hilfe des chinesisch Wörterbuchs
als erste Sprache gelernt werden, d.h. ohne vorherige Kenntnis
einer Sprache und deren formaler Regeln, ja sogar ohne die
Kenntnis, was „Sprache“ eigentlich bedeutet! Diese Version ist
-
damit unmöglich lösbar, da die Versuchsperson einfach nicht in
der Lage ist, die Symbole als Buchstaben, Worte und Sätze als
solche zu deuten und einfach planlos mit ihnen spielt. Somit
lässt sich allein aus der symbolischen Syntax keine direkte
semantische Bedeutung gewinnen.
Stevan Harnad geht noch einen Schritt weiter und stellt die
Frage ob man überhaupt eine fremde Sprache lernen kann, wenn
man nichts als ein einsprachiges Wörterbuch besitzt. Dies
scheint unmöglich, denn ein Symbol reiht sich an das andere
und nirgendwo wird die Bedeutung eines dieser Symbole fassbar.
Wie gehen Ethnologen vor, wenn sie in ein fremdes Land reisen
und Völker erforschen, deren Sprache sie nicht kennen?
Hier gelingt der Einstieg in die Sprache auf dem Umweg über
die Interaktion und die Welt. Wenn wir z. B. mit einem
indischen Ureinwohner durch den Wald spazieren und dieser auf
ein Kaninchen zeigt und „Gavagai“ sagt, sind wir uns zwar
nicht sicher, dass er „Kaninchen“ meint oder doch vielleicht
„Mittagessen“, aber wir haben eine Annahme, die wir weiter
verfolgen können. Spätestens dann wenn der Ureinwohner das
Tier mit einem Pfeil tötet, wissen wir, dass er mit „Gavagai“
Abendessen meint.
Wenn man nur ein einsprachiges Wörterbuch zur Verfügung hat,
kann diesen Weg nicht gehen, denn die Symbole haben keine
Bedeutung.
Harnad betont, dass beim Symbol Grounding Problem die
Bedeutung der Symbole dem System nicht intrinsisch ist,
sondern parasitär. Die Bedeutung kommt bloß aus dem Kopfe des
Benutzers. Wenn der Mensch also meint, dass der Computer ihn
verstünde er was man zu ihm sagt und was er einem antwortet,
so liegt das alleine daran, dass sich der Mensch in dieser
Hinsicht leicht täuschen lässt.
Wie schafft man es also einem Computer Bedeutung beizubringen.
Wie wir wissen ist der Computer ein in sich geschlossenes
-
System. Er ist nicht in der Welt und die Welt ist nicht in
ihm. Er weiß nichts von der Welt. Er will wahrscheinlich auch
nichts davon wissen, denn das einzige was ihn interessiert
sind die Bitmuster in seinem Speicher. Er transformiert Nullen
und Einsen, natürlich ohne Kenntnis, was diese Zahlen für uns
Menschen bedeuten. Der Mensch verbindet die Symbole zu dem was
sie bedeuten. Dies sieht man dann, wenn man dem Menschen aus
diesem Geschehen herauszieht, und den Roboter alleine in der
Welt agieren lässt. Harnad schlägt an dieser Stelle vor, dass
der Roboter durch Interaktion die Bedeutung der Symbole
erfährt.
Fast allen Programmen der frühen Kognitionswissenschaften
fehlt das Symbol Grounding Problem. Ein Schachprogramm z. B.
hat es nicht nötig zu wissen, dass es Schach spielt, es reicht
vollkommen wenn der Benutzer dieses Programms dies weiß.
Das Problem taucht aber dann auf, wenn sich ein System alleine
in der Welt zurechtfinden muss. Dann nämlich muss es lernen,
welche Bedeutung Symbole haben. Ein System, das eine Coladose
ergreifen und wegräumen soll, muss sein Symbol für die
Coladose mit dem in Verbindung bringen, was seine Sensoren
wahrnehmen.
Einer der gängigsten Lösungsvorschläge für dieses Problem
lautet, dass sich das System seine Begriffe selber bilden
müsse. Erst durch eigene Erfahrungen lernt es Begriffen
Bedeutung zu geben und dadurch sein Verhalten ohne Umweg durch
den Kopf des Programmierers zu steuern.
Auf diese Weise wäre auch die Lösung auf das Problem der
Kategorisierung gefunden.
Schon simple Alltagsdinge lassen sich nicht haargenau
definieren, immer drängt sich die eine oder andere Ausnahme
auf. Wie etwa definiert man Vögel so, dass Spatzen, Strauße,
Pinguine und Brathähnchen unter die Definition fallen? Wie
macht man einem Computer die unterschiedlichen Verwendungen
eines so einfachen Verbs wie »essen« klar?
-
5. Autonome Agenten
Prinzipiell glaubt Harnad schon, dass eine Maschine
intelligent sein kann, aber da das Verhalten beobachtbar sein
muss, müsste die Maschine über einen Körper in die Umgebung
eingebettet werden.
Autonome Agenten erfüllen dieses Kriterium, da sie in einen
künstlichen Körper stecken und Informationen aus ihrer Umwelt
mittels Sensoren empfangen und dann durch Effektoren die
Umwelt im Sinne der Erfüllung ihrer Aufgabe verändern. Dazu
benötigen sie natürlich Fortbewegungsmittel, in diesem Fall
Räder, Beine oder auch Raupen, um agieren zu können, oder auch
Greifarme um Sachen aus dem Weg zu räumen.
Man nennt die Agenten „autonom“, weil sie in der Lage sind,
sich in ihrer Umgebung zurechtfinden und diese zu verändern,
ohne dass sie vom Menschen gesteuert werden müssen. Autonom
bedeutet also soviel wie „seine eigenen Gesetze machen“.
Es gibt keine allgemeine Definition für autonome Agenten, da
das Anwendungsgebiet sehr breit gefächert ist.
Eine der Hauptaufgaben der autonomen Agenten ist der Einsatz
in gefährlichen Umgebungen z.B. Minensuchroboter. Sie
erledigen die Arbeit an Orten, wo es für Menschen zu
gefährlich ist, oder diese gar nicht hingelangen. z.B. in der
Kanalisation. Des Weiteren sollen die Agenten das Alltagsleben
der Menschen erleichtern, so wurden z.B. autonome Rollstühle
oder Roboter zur Altenpflege entwickelt.
Gerade für alte Menschen wurden auch autonome Agenten
entwickelt die rein der Unterhaltung dienen. Z.B. der
elektronische Hund AIBO (Artificial
Intelligence roBOt) der von Sony
entwickelt wurde. Die Nutzung reicht also
von ziemlich einfachen Aufgaben, bis zum
Einsatz in speziellen Bereichen wie z. B.
der Luftfahrt.
-
5.1 AIBO
Ein besonderes Merkmal von AIBO ist, dass er Wörter erlernen
kann und auf Befehle zu reagieren. Er lernt, indem man ihm
Dinge zeigt und das entsprechende Wort dazu genannt wird.
AIBO´s Augen (Kamera) nehmen dieses Objekt von verschiedenen
Seiten als Ganzes wahr. AIBO lernt Wörter durch
Verstärkungslernen, ein positives Feedback wird durch das Wort
„good“ gegeben, ein negatives Feedback durch das Wort „no“.
Das Erlernen von Wörtern ist durch den Kontext, in dem das
Lernen stattfindet stark beschränkt: das language game, AIBO´s
Eigenständigkeit und den Trainer. Oft ist es der Fall, dass
AIBO zu dem Zeitpunkt, an dem der Trainer auf ein Objekt zeigt
und das entsprechende Wort dazu ausspricht, schon wieder ein
anderes Objekt ansieht. Deshalb spielt die Aufmerksamkeit und
Zuwendung des Trainers eine große Rolle für den Lernerfolg: je
weniger intensiv sich der Trainer um AIBO kümmert, desto
schlechter wird AIBO im Klassifikationsspiel.
Ein typischer Dialog kann folgender sein:
1. Human: Stand (der Roboter hat schon Befehle erworben)
2. Human: Stand up.
3. Human: Look
4. Human: ball
5. Aibo: ball?
6. Human: Yes
7. Human: What is it?
8. Aibo: Ball
9. Human: Good
-
6. Resumé
Wie an dem “Symbol Grounding” Problem zu sehen ist, ist eine
Verbindung von Symbolen und den dazugehörigen Perzepten in der
Welt von immanenter Wichtigkeit.
Ein System zum Lernen von Objekten muss diese daher in der
Welt sensorisch verankern.
Bei der Benennung der Objekte muss das System Nominalphrasen
verarbeiten können.
-
7. Literaturverzeichnis
http://users.ecs.soton.ac.uk/
http://www.uibk.ac.at/psychologie/ arbeit.pdf
http://www.informatik.uni-leipzig.de/
http://www.ifi.unizh.ch/
http://www.christoph-pingel.de/
http://www.ling.ed.ac.uk/
http://www.wikipedia.de
http://www.philosophyofinformation.net/
Abbildungsverzeichnis
http://www.cs.bham.ac.uk/
http://www.unc.edu/
http://www.wikipedia.de
http://users.ecs.soton.ac.uk/~harnad/Papers/Harnad/harnad90.sgproblem.htmlhttp://www.informatik.uni-leipzig.de/http://www.ifi.unizh.ch/groups/ailab/teaching/semi2000/Design Principles of Autonomous Agents Text.pdfhttp://www.ling.ed.ac.uk/http://www.cs.bham.ac.uk/http://www.unc.edu/~prinz/pictures/c-room.gif
2.2 Symbol-Systeme