Big Data in a small world

Big Data in a small World

Big Data in a small world – das Leben im Flächenland

Die neuronale Intelligenz hat sich im Laufe von Jahrmillionen soweit entwickelt, dass der Mensch etwas so kompliziertes wie einen Computer entwickeln konnte. Mit diesen Geräten begann der Mensch dann, noch immer unter neuronalem Kommando, Daten zu verarbeiten. In den allerersten Anfängen wurden Lochkarten zur Auszählung von Wählerstimmen in den USA verwendet. Dies waren schon viele Daten, jedoch enthielten die einzelnen Datensätze noch sehr wenig Information. Im Laufe der Zeit erhöhten sich die Leistungsfähigkeit und die Integrationsdichte von digitalen Systemen nahezu exponentiell.

Damit stehen uns heute Rechner und Systeme zur Verfügung, welche die neuronale Intelligenz in manchen Fällen schon überholt hat. Es gibt also keinen Schachgroßmeister mehr, der einen Schach Computer schlagen könnte – was allerdings nicht von großer Bedeutung ist, jedoch einen Entwicklungstrend aufzeigt. Beispielsweise Autopiloten sind in der Lage Flugzeuge und Autos sicherer zu steuern als es der Mensch könnte – d. h. keine Konzentrationsschwäche, parallele Verarbeitung von Daten und gleichzeitig Zugriff auf riesige Datenmengen.

Die Kombination von hoher Rechnerleistung, hoch entwickelten Algorithmen und riesigen Datenmengen führt zu digitaler Intelligenz. Vorrausetzung für den Zugriff auf die notwendige große Datenmenge ist die globale Vernetzung. Google war eines der ersten Unternehmen, welches sich mit Big Data beschäftigte – obwohl es den Begriff noch gar nicht gab.

Am Beispiel der Sprachassistenten sieht man die Verschiebung vom Algorithmus zu den Daten hin sehr gut. Erste Sprachassistenten analysierten aus einem gesprochen Satz die Wörter und versuchten diese auf Basis von Algorithmen zu übersetzen – was wenig erfolgreich war. Heutige Systeme arbeiten nach einem zweistufigen Konzept. In der Phase 1 wird der gesprochene Satz auf textuelle Wörter heruntergebrochen, in der Phase 2 wird der Text mit möglichst vielen gespeicherten Sätzen verglichen und derjenige mit der höchsten Trefferquote als Übersetzung angeboten.

Das Zusammenspiel von Rechnerleistung, Vernetzung, Algorithmen und Daten wird als Big Data bezeichnet. Der Begriff „small world“ wurde von Mark Buchanan in der 80er Jahren geprägt. Dieser Wissenschaftler stellte fest, dass man lediglich sechs Personen in einer Kette braucht, um jeden beliebigen Menschen der Welt zu erreichen. Möchte ich den amerikanischen Präsident kontaktieren, so ist das über minimal sechs Kontaktpersonen möglich. Gleiches Gesetz gilt auch bei Webseiten. Man kann also über sechs Verlinkungen zu jeder beliebigen anderen Seite kommen. Die Welt ist damit sehr klein geworden.

Es ist davon auszugehen, dass der Vernetzungsgrad steigt – die Welt also noch kleiner wird – die Rechnerleistungsfähigkeit steigt und Big Data damit noch größer. Der Mensch hat sich damit eine Komplexität aufgebaut, die wiederum nur über das Computersystem beherrschbar ist. Kein Mensch möchte und kann in einer Welt überleben, welche die neuronale Intelligenz permanent überschreitet. Es steht also die Forderung im Raum Komplexes auf Einfaches zu transformieren.

Erfolgreiche, globale Unternehmen wie Apple, Samsung, usw. ist dies bereits sehr gut gelungen. Mit einfachen Apps, auf einfach zu bedienenden Geräten können wir so komplexe Sachen wie Wettervorhersagen, Straßennavigation, Streaming Dienste usw. einfach konsumieren. All diese Anwendungen finden auf einem flachen Bildschirm statt.

Also: Big Data in a small world – Leben im Flächenland