Algorithmen nach dem Bateson und Turing Modell

Algorithmen

Lernen ist jene Fähigkeit die einem Wesen sein Überleben in der Umwelt garantiert, dieses verbessert und angenehmer macht. Lernen hat sehr viel mit Bewusstsein zu tun. Während des Lernens ist dieser meistens bewusst. Sofern ein Verhalten oder eine Fähigkeit einmal erlernt ist, geht dieses in das Unterbewusstsein über. Typische Beispiele dafür sind Radfahren, Autofahren, Tanzen, usw. Auch beim Lernen sollten wir nicht die Frage stellen ob ein Wesen oder ein Computer lernfähig ist oder nicht. Es ist vielmehr zu klären wie gut seine Lernfähigkeit ist. Dazu hat der Systemtheoretiker Gregory Bateson ein vierstufiges Modell vorgestellt (Lernen 0 bis Lernen 3). Er hat dieses in seinem Buch “Ökologie des Geistes” aufgespannt. Bateson hat bei seinen Überlegungen hauptsächlich den Menschen im Blickwinkel. Etwa zeitgleich in den 1950ern hat sich Alan Turing mit der theoretischen Konzeption von Computern auseinandergesetzt.

Tuning war wesentlich am Code hacking der Enigma beteiligt. Mit den damaligen Dechiffrierungs-Methoden wäre es tatsächlich kaum möglich gewesen diese Verschlüsselung zu knacken. Es hätte also der Zufall helfen können, sehr viele Menschen oder sehr lange Zeit in Anspruch genommen. Turing als Mathematiker hat sein Handwerkszeug, die statistischen Methoden, zur Lösung dieses Problems herangezogen. Nach längeren Widerständen hat man ihm die notwendigen Ressourcen zur Verfügung gestellt und er konnte den Enigma Code entschlüsseln. Historiker behaupten, dass damit der zweite Weltkrieg um einige Jahre verkürzt wurde und Berlin so vor der Atombombe verschont blieb. Damit hat Alan Turing einen großen Dienst an der Menschheit geleistet. Sein Name wird heute allerdings viel mehr mit der Turing-Maschine verbunden. Es handelt sich dabei um ein Konzept nach dem Daten maschinell verarbeitet werden können. Das Turing Design war offensichtlich so genial, dass heute noch alle Computer nach dieser Methodik arbeiten. Im Wesentlichen besteht eine Turing-Maschine aus einem endlos langen Datenband, einem Schreib- und Lesekopf und einer einfachen ALU (Arithmetisch-logischen Unit). An sich ist es unabhängig über welche Mechanik dieses Konzept realisiert wird. Sehr anschauliche Modelle wurden mit Lego Bausteinen realisiert.

Heutige Hochleistungsrechner und Smartphones funktionieren auf dem gleichen Prinzip, sind allerdings in Nanoelektronik realisiert. Selbst elektronisch-neuronale Netze (Watson) arbeiten so.

Eine Turing-Maschine ist zwar eine universelle Einrichtung kann aber trotzdem nicht alle Rechenaufgaben lösen. Sofern eine Aufgabe in einer bekannten, durchaus sehr langen Reihe von Schritten beschreibbar ist, kann sie auch gelöst werden. Wenn allerdings die Anzahl der Rechenoperationen von vornherein nicht bekannt ist, kann aufgrund der Unendlichkeit des Bandes eine Lösungsfindung auch unendlich lange dauern und damit nicht lösbar sein. Elektronische Speicher sind heute zwar enorm groß (Peta Byte) trotzdem aber endlich und damit eben nicht zur Berechnung von “Allem” einsetzbar.

Das folgende Bild zeigt den Zusammenhang zwischen den Lern-Ebenen von Gregory Bateson und den Lösungsalgorithmen auf einer Turing-Maschine.

Lernebenen

Lernen 0 – If-Then Algorithmen
Ein Wesen auf der Lernen Ebene 0 erkennt einen sensorischen Input, erfährt also einen sinnlichen Reiz und reagiert darauf. Bateson war der Meinung, dass dies die einzige Möglichkeit wäre wie Computer lernen könnten. Der If-Then-Else Algorithmus gehört zu den Basics eines elektronischen Rechners und ist dort dem menschlichen Gehirn an Zuverlässigkeit und Schnelligkeit wahrscheinlich überlegen.

Lernen 1 – Rekursive Algorithmen

Ein Wesen auf der Lernen Ebene 1 hat eine Menge (K) von Verhalten / Fähigkeiten zur Verfügung aus denen es nach Bedarf auswählen kann. Wenn also ein Programm zur Lösung eines Problems in einem bestimmten Kontext nicht zielführend ist wird aus derselben Menge das nächste Programm ausgewählt.
Ein Verkäufer *) hat verschieden Möglichkeiten einen Kunden zu überzeugen. Es sind allerdings immer dieselben und erlernten Verkaufstechniken.
Ein Kennzeichen von Lernen 1 ist, dass immer nur aus derselben Menge ausgewählt wird. In der Computertechnologie wird dazu der rekursive Algorithmus eingesetzt. Eine Prozedur ruft sich selber so oft auf bis das Problem gelöst ist. Allen Informatiker ist dazu das Problem der Türme von Hanoi bekannt

Lernen 2 – Evolutionäre Algorithmen
Die Zufälligkeit spielt beim Lernen von Verhalten / Fähigkeiten eine sehr große Rolle. Vieles was der Mensch in seiner Evolution erlernt hat, ist auf einen Zufall zurückzuführen. In der Bewältigung unseres Alltagslebens stehen uns routinemäßige Prozeduren zur Verfügung. Vieles davon ist unbewusst und ritualisiert. Wenn nun in einer derartigen Situation plötzlich bestimmte erforderliche Werkzeuge nicht mehr zur Verfügung stehen, dann muss improvisiert werden. Es könnte sein, dass diese provisorische Lösung zu besseren Ergebnissen führt als die routinemäßige Herangehensweise.
Ein Verkäufer hat bei einem Kundenbesuch seine Unterlagen vergessen und kann sein Produkt nicht wie gewohnt präsentieren. In seiner Not verwendet er auf dem Tisch liegende Gegenstände wie Kugelschreiber, Gläser, Pralinen, usw. um sein Produkt zu präsentieren.
Sofern diese dann in Zukunft eingesetzt wird ist Lernen 2 passiert. Informatiker nutzen nun einen ähnlichen Ansatz bei den sogenannten evolutionären Algorithmen. Zur Lösung eines Problems wird ein bekannter Algorithmus herangezogen. Sofern dieser nicht zielführend ist, wird er geringfügig und durch eine Zufallsfunktion angepasst (R). Der Algorithmus selber wird nicht verändert, wird beim nächsten Mal in seiner ursächlichen Form wieder eingesetzt und gegebenenfalls zufällig angepasst. Alle Informatiker haben in ihren ersten Semestern das Problem des “Travelling Salesman” programmiert.

Lernen 3 – Genetische Algorithmen
Gregory Bateson war der Meinung, dass diese Form des Lernens beim Menschen zwar möglich ist, dort aber sehr selten z. B. nur bei einer erfolgreichen Psychotherapie vorkommt. Lange verwendete und gut erlernte Fähigkeiten / Verhaltensweisen werden entlernt und durch Neue ersetzt. Ein Alkoholiker trinkt keinen Alkohol mehr sondern spielt stattdessen mit einer X-Box. Das Suchtverhalten kann bleiben, das Leben verändert sich.
Ein erfolgreicher Verkäufer hat eine enorme Vielfalt an Verkaufsmethoden entwickelt. Zufällig kommt er zu einem Kunden der ihm von einem Seminar mit Anselm Grün erzählt. Begeistert davon und gepaart mit seiner verkäuferischen Fähigkeit entschließt er sich Wirtschafter in einem Kloster zu werden.
Informatiker verwenden bekannte Algorithmen und erweitern diese um eine zufällige Prozedur. Diese Kombination wird sooft (Konstant/Zufällig) durchgeführt, bis das gewünschte Ergebnis erreicht ist. Die Maschine hat nun gelernt im vorgegeben Kontext das Gewünschte zu machen. Dieser Algorithmus (M= K R) wird dann zu seinem Repository hinzugefügt. Der Staubsauger Roboter weiß nun wie er ein Zimmer zu saugen hat, weiß wann er fertig ist und weiß wie er ins nächste Zimmer kommt.

Entgegen der Meinung von Bateson hat sich Turing mit seinem Postulat auf künstliche Intelligenz durchgesetzt. A. I. erfordert lernen auf allen vier Ebenen. Die Anforderungen an eine Lernendes System können mit dem Turing Konzept nur eingeschränkt umgesetzt werden (endlos langes Band gibt es nicht – dauert auch zu lange). Aktuell bauen Informatiker das neuronale menschliche Gehirn nach, um die Lernfähigkeit von Computern zu verbessern. Dazu mehr in meinem nächsten Blogbeitrag.

*) Verkäufer ist mir bekannt und die Story hat sich so ähnlich zugetragen