Donnerstag, 13. Dezember 2007

Freiwillige globale Netzwerke signalisieren den Trend zur kollektiven Intelligenz

Folgenden Artikel habe ich bei beim RSS-Feed von kurzweilAI.net gefunden:

"Spreading the load"

Es geht darin um die verstaerkte, freiwillige Teilnahme als Helfer fuer aufwaendige Berechnungen oder Sortierungen ueber das Internet.
Dabei wird der Aufwand grosser Projekte auf viele freiwillige Helfer aufgeteilt, die einen Internetzugang besitzen. Dabei wird entweder ueberschuessige Rechenkapazitaet ihrer Computer benutzt oder die Helfer nehmen sich selbst die Zeit, kleine Aufgaben zu erledigen.
Die gleiche Aufgabe wird an mehrere Leute geschickt, so dass sich das Ergebnis, ob zum Beisiel ein Foto eine Spiralgalaxie oder eine Balken-Spiralgalaxy zeigt , mit dem Ergebnis eines "echten" Wissenschaftlers messen koennte.
Bei der riesigen Zahl an Internet-Anwendern weltweit reicht schon ein winziger Teil aus, um trotzdem noch sehr viele Menschen zur Teilnahme zu bewegen.

Die Arbeitsgeschwindigkeit solcher Helfer-Netwerke uebertrumpft wegen ihrer Groesse leicht Supercomputer um ein Vielfaches.
Daran wird sich auch in Zukunft nichts aendern, denn die Anzahl der Menschen mit Internetverbindung steigt immer weiter an und die durschnittliche Geschwindigkeit ihrer Computer steigt sogar mit der Zeit exponentiell an (Moorsches Gesetz).
Genauso greifen auch Supercomputer nur auf eine begrenzte Anzahl an Prozessoren zu, die nicht viel schneller sind als die in einem Standard-PC. Die hohe Rechengeschwindigkeit wird durch die Benutzung von einigen Tausend Prozessioren gleichzeit ermoeglicht. Aber so viele Helfer bekommt man im Internet mit Leichtigkeit zusammen.

Diese Arbeitsverteilung erinnert mich sehr stark an die Arbeitsweise unseres Gehirns. Aufgaben werden einfach durch die Zusammenarbeit eines Netzes von vielen Neuronen geloest.

Solche Beispiele erstaunen mich immer wieder, denn sie veranschaulichen, wie schnell sich die Menschheit schon auf die kollektive Intelligenz zubewegt.

Freitag, 7. Dezember 2007

Integrierte Neuronale Representationen erklaeren gedankliche Assoziationen

Zunaechst ein Link einem meiner vorigen Artikel:

Hier geht es um Integrierte Neuronale Representationen (INR)

Ich definiere eine gedankliche Assoziation als eine unmittelbare auf einen Gedanken folgende weiteren Gedanken, der durch den ersten direkt oder indirekt ausgeloest wurde.
Darunter fallen auch Situationen, in denen der zweite Gedanke durch etwas angestossen wird, das die betreffende Person wahrnimmt, weil sich alles Wahrgenommene in einer Neuronalen Representation(NR) niederschlaegt und damit selbst zum Gedanken wird.

Mit dem Konzept der INR erklaeren sich gedankliche Assoziationen voellig natuerlich. Sei A eine beliebige NR. A ist aus Gruenden der natuerlichen Selektion (siehe Link) eine zumindest partielle Rekonstruktion aus INR (RNR). Sei nun B ebenfalls eine beliebige NR. Genau wie A ist sie natuerlich auch eine RNR.
Dann existiert eine Schnittmenge S an INR, die gleichermassen in A und B vorkommen. Je nach dem, wie gross S ist, desto weniger Modifikation von A ist notwendig, um B zu erhalten und andersherum. Dazu kommt noch die Staerke der INR in S von A und B. Ist diese sehr hoch bezueglich der INR von A, die sich nicht in S befinden, ist sehr wenig Muehe notwendig, um auf B zu kommen, da die INR in A, ausserhalb S dann relativ schwach sind, also keine grosse Rolle spielen. Analog dazu gilt das gleiche auch fuer B.

Interessanterweise ist daraus ersichtlich, dass man A mit hoeherer Wahrscheinlichkeit mit B assozieren koennte, als umgekehrt. Es ist sogar recht unwahrscheinlich, dass in beide Richtungen die gleiche Assoziationswahrscheinlichkeit gegeben ist, denn dazu muesste das jeweilige Verhaeltnis der Staerke der INR in S zu der Staerke der INR in A bzw. B genau gleich sein.
Statt nur zwei NR wie A und B einzubeziehen kann das ganze Modell auch auf beliebig viele NR ausgedehnt werden.

Die Wahrscheinlichkeit fuer Ueberschneidungen steigt natuerlich mit sinkender absoluten Zahl an existierenden INR. Die semantisch optimierte Integration von NR spielt da ebenfalls mit ein oder anschaulich gesagt, in Themengebieten, in denen man sich auskennt, kommen einem eher Assoziationen als woanders.

Semantisch speicheroptimierte Integration Neuronaler Representationen

Links zu vorige Artikel:

Herleitung zur hierarchischen Struktur der neuronalen Datenspeicherung

Ausgehend von der hierachischen Speicherung von Integrierten Neuronalen Representationen (INR) kann man sich einen Speicherbaum vorstellen, dessen erste Ebene aus den Basis-INR besteht, von denen jeweils wieder Abzweigungen zur zweiten Ebene gehen, die wiederrum jeweils aus der Menge der Basis-INR besteht und so weiter.

Wenn eine NR aus wenigen dieser INR zusammengesetzt werden kann, ist sie leichter zu speichern, weil dann auch weniger Verbindungen gespeichert werden muessen.

Da unser Gehirn nicht unbegrenzt Speicherplatz besitzt, kann man sich leicht vorstellen, die es effektiver ist, die Speicherung von Daten so zu optimieren, dass Themengebiete, mit denen man mehr zu tun hat, leichter im Gedaechtstnis bleiben, als andere. Die natuerliche Selektion sorgt automatisch dafuer , dass unser Speicherbaum und die Basis-INR so aufgebaut wird, dass die kuerzesten Wege zu "populaeren" Themen gehen auf Kosten von anderen NR, die jetzt vielleicht etwas komplizierter durch die Basis-INR kombiniert werden muessen, aber dafuer auch kaum verwendet werden. Es ensteht also eine semantisch orientierte Speicheroptimierung.

Praktisch zeigt sich das in unserer Gedaechsnisleistung, die je nach Thema schwankt.
Waehrend sich manche Menschen gut Zahlen merken koennen, bleiben ihnen Namen nicht lange im Gedaechtnis. Das Erinnerungsvermoegen laesst also darauf schliessen, wie gut sein Gehirn seine NR integriert, aber vor allem womit sich diese Person sonst geistig so beschaeftigt oder nicht. Das ist sicher keine neue Erkenntnis, aber durch INR laesst es sich vollstaendig analytisch erklaeren.
In der Informatik sind diese Speicherstrukturen uebrigens gang und gebe.

Mittwoch, 5. Dezember 2007

Die Globalisierung fuehrt zur kollektiven Intelligenz

Zuvor noch ein Link zur Singularitaet:

Singularitaet

Die Globalisierung fuehrt zur Vernetzung der Welt.
Die Begrenzung unseres Handlungsspielraumes auf die Erde hat zur Folge, dass jede Entwicklung auf irgendeine Art und Weise "intern" ausgefuehrt werden muss.
Eine Evolution an Effizienz ist die Konsequenz des marktwirtschaftlichen globalen Wettkampfes
Besonders die Zeit ist ein Faktor, der viel an Effizienz kostet. Entfernungen muessen ueberbrueckt werden, um Produkte zu transportieren und Informationen zu uebermitteln. Dabei ist das Internet sicher ein Meilenstein. Der Trend geht eindeutig zu einem immer dichter werdendem Netz zwischen allen Menschen, um einen ununterbrochenen Zugriff auf moeglichst alles zu haben.
Je naeher man diesem Zustand kommt, desto weniger relevant werden lokale Informationen. Denn unserer unmittelbare Umwelt aendert sich durch die Allgegenwaertigkeit von immer mehr Dingen zum Nachteil der Relevanz bereits zuvor in unserer Umwelt vorhandenen Dinge.
Das fuehrt zu einer sinkenden Signifikanz geografischer Grenzen.
Die wachsende Koorperation zwischen verschiedenen Laendern ist ein Indiz dafuer. Sogar ohne Internet ist es zumindest bis zu einem gewissen Grade dazu gekommen(zB. EU,WTO,UN).
Wenn man ein wenig weiterdenkt, resultiert daraus fast zwangslaeufig die Entnationalisierung der Welt.
Gruppenzugehoerigkeit wird zukuenftig ueber Interessensgemeinsamkeiten bestimmt. Die Zugehoerigen solcher Gruppen koennen ueberall auf der Welt verteilt sein. Das Internet verbindet sie. Natuerlich werden bis dahin die elektronischen Kommunikationmoeglichkeiten viel weiter entwickelt sein. Komplette Simulationenen von virtuellen Realitaeten waeren theoretisch kein Problem. Die exponentielle Entwicklung laesst das zu einer Moeglichkeit in absehbarer Zeit werden .
Die Al-Qaida wuerde ich als einer der ersten in "Aktion" tretenden Gruppen betrachten, die praktisch geographisch unabhangig auftritt.

Die Denationalisierung hat als Umkehreffekt die Internationalisierung. Es wird immer einfacher, internationale Interessen zu nutzen, um global Ziele anzustreben, weil immer weniger nationale Barrikaden die Zusammenarbeit behindern.
Gleichzeitig fuehrt das zu einer hoeheren globalen Reaktionsfaehigkeit. Wurden globale Einigungen in der Vergangenheit nur mit viel Muehe zustande gebracht, sieht die Zukunft ganz anders aus. Die Menschheit wird immer mehr einem intelligenten Netzwerk aehneln. Dieses Netz entwickelt sich natuerlich ebenfalls in exponentiellem Tempo weiter. Analog zur Entwicklung des Nervensystems in der biologischen Evolution ist es realistisch zu erwarten, dass hier eine Art kollektive Intelligenz erweckt wird.
Manchen erinnert dieses Szenario vielleicht an die Borg aus Star Strek. Der Vergleich ist gar nicht mal so schlecht. Allerdings wird dafuer eher nicht die Gleichschaltung der Individuen noetig sein. Wahrscheinlich nicht einmal wuenschenswert.
Man koennte sich die Menschheit dann auch als riesiges Gehirn vorstellen, dessen Neuronen Menschen sind.

Als Vorraussetzung fuer solch eine kollektive Intelligenz muesste es zunaechst Aufgaben geben, bei denen ihr Potential genutzen werden kann, so dass sie immer weiter trainiert wird.

Die globale Abkehr von fossilen Energietraegern kann ich mir als eines der ersten dieser Aufgaben vorstellen.
Ueberhaupt ist die Entwicklung von Technologien, die globale Zusammenarbeit erfordern, wie gemacht fuer eine kollektive Intelligenz. In besonders interessantem Licht wird dann meiner Ansicht nach auch die Raumfahrt stehen.

In welchen Zeitrahmen sollte man sich das vorstellen?

Wenn man davon ausgeht, dass die Singularitaet in weniger als 50 Jahren eintreten wird, was ich tue, stellt sich die Frage, wie weit die Vernetzung bis dahin voranschreitet. Rein intuitiv entwickelt sich fuer mich beides ungefaehr gleich schnell. Beides folgt jedenfalls einem exponentiellen Tempo. Man kann erahnen, wie dramatisch die Singularitaet die globale Intelligenz verstaerken wird und in wie kurzer Zeit das alles geschieht. Aber hier beschreite ich zu sehr den Pfad der Spekulation, um zuverlaessige Aussagen zu treffen, zumal die Realitaet beider Entwicklungen sich an der Grenze unserer Vorstellungskraft und darueber hinaus bewegt.

Die Rolle von regenerativen Energiequellen in der Entwicklung der Menschheit

Es ist klar, dass Erdoel, Erdgas, Stein-und Braunkohle nur begrenzt vorhanden sind. Unsere Rolle als Menschen spielen wir mit wenigen Ausnahmen im Moment so, als wenn das nicht der Fall waere.
Irgendwann wird der Umstieg auf regenerative Energiequellen kommen muessen. Ich sehe diesen Schritt als eine Art Pruefung fuer den Menschen. Sobald wir ihn geschafft haben, erlangen wir damit eine Freiheit, die nur noch durch den technischen Entwicklungsstand beschraenkt wird. Wir werden in einem gewissen Grade unabhaengig von der Erde, weil wir einen Freiheitsgrad dazubekommen.

Ausserdem glaube ich, dass der Umstieg die erste kollektive Handlung unserer Spezies ist.
Ohne, dass auf eine unmittelbare Gefahr individuell reagiert wird, sondern der Menschheit sozusagen "global" bewusst wird, was ihm mittelfristig bevorsteht und sie so wie ein Individuum in der Lage ist, darauf geziehlt zu regieren.
Ich sehe das als Schwelle zu einem neuem Trend, der durch die Globalisierung vorangetrieben wird. Aber dazu ein andernmal.

Was ist von der Klimadebatte zu halten?

Seit Jahren geht nun schon die oeffentliche Debatte um den Klimawandel.

Es gibt diverse Modelle zur seinen Folgen und in letzter Zeit werden immer neue Faktoren entdeckt, die alles noch viel schlimmer machen koennten.

Doch eine Komponente wird in KEINER der Prognosen, die oft, wie beim IPCC Klimabericht, die direkten Folgen fuer den Menschen vorhersagen, mit einbezogen.

Es wird so getan, als wenn sich das Klima veraendere, aber die Welt der Menschen in einigen Jahrzehnten mehr oder weniger der heutigen gleiche!
Aber was ist mit dem technischen Fortschritt?
Selbst ohne Singularitaet kann davon ausgegangen werden, dass uns in einigen Jahren und erst recht in einigen Jahrzenten technische Moeglichkeiten zur Verfuegung stehen, die den Klimawandel ertraeglich werden lassen. Zumindest ist das nicht unwahrscheinlich. Die Amerikanische Regierung argumentiert ja gerade mit technischen Loesungen, um Grenzwerte fuer Treibhausgase zu vermeiden.

Ich denke nicht gerade, dass sie dies in Hinblick auf exponentiell entwickelnde Technologie vorschlagen, sondern viel mehr aus vermeintlichen wirtschaftlichen Interessen. Aber vermutlich vertreten sie damit trotzdem eine effektivere Loesung als zum Beispiel Europa.

Wenn man dann noch die Singularitaet mit einbezieht, waere auch eine kurzfristig umsetzbare Manipulation des Klimas oder die biologische Anpassung des Menschen denkbar.

Ich will nicht die Massnahmen gegen den Klimawandel kritisieren, aber man sollte sich erstmal klarmachen, welche Vorteile wirklich davon zu erwarten sind, wenn heute Milliardensubventionen in wettbewerbsunfaehige Technologien noetig sind, um sie rentabel zu machen, wofuer in einigen Jahren die Technik vorhanden sein koennte, die sie von selbst effizient genug arbeiten laesst. Sobald das passiert, werden fossile Energietraeger sehr schnell in der Versenkung verschwinden, denn ihr Preis wird langfristig nur steigen koennen, weil ihr Vorrat begrenzt ist.
Das exponentielle Wachstum der Enwicklung impliziert auch exponentiell sinkende Kosten. Subventionen von heute koennen daher kaum einen Unterschied in der Entwicklungszeit machen.

Es wird langsam Zeit, dass das auch in der Politik nicht weiter unbeachtet bleibt. Gerade jetzt, wo wir Menschen beginnen, zivile, globale Projekte zu verhandeln, waere alles andere ignorant.

Freitag, 9. November 2007

Die Optimierung Neuronaler Repraesentationen durch natuerliche Selektion

Kurze Erinnerung: Unter Neuronalen Representationen(NR) verstehe ich das "Bild" einer Information, wie sie durch Neuronen im Gehirn ausgedrueckt wird. Zum Beispiel mit Hilfe eines Netzes elektrischer Impulse zwischen bestimmten einzelnen Neuronen.

Ich gehe von den Theorien zur Intuitiven Fragmentierung, Universellen natuerlichen Selektion und ueber das Bewusstsein aus:


Intuitive Fragmentierung

Universelle natuerliche Selektion

Bewusstsein



Die Enwicklung des Gehirns wird von Erfahrungen und Genen gesteuert.

Die aufgenommenen Reize und ihre Art und Weise der Verarbeitung transformieren das Gehirn eines Menschen ununterbrochen. Jeder Input spiegelt sich in einer NR wieder. Je oefter eine NR verwendet wird, desto mehr werden die Verbindungen zwischen beteiligten Neuronen verstaerkt. Bei seltener oder keiner Nutzung verkuemmern sie.

Was hat diese Funktionsweise fuer eine Auswirkung auf Erinnerungen?

Offensichtlich erkennbar ist hier der Wettkampf zwischen verschiedenen NRs, dessen Gewinner sich durch besonders haeufige Verwendung auszeichnen. Denn genau das ist es doch, was sie am Leben haelt.

Aber eine Erfahrung, bzw. der entsprechende Input tritt mit verschwindend geringer Wahrscheinlichkeit exakt noch einmal auf und damit auch ihre NR.
Oberflaechlich betrachtet duerfte also nichts in unserer Erinnerung verbleiben. Das gilt allerdings nur dann, wenn jede NR voellig individuell waere. Es ist leicht, inhaltliche Ueberschneidungen zwischen verschiedenen Erfahrungen zu finden. Man koennte also eine NR auch als Kombination und/oder Modifikation anderer NRs verstehen.

Ich nenne eine solche Ueberschneidung zwischen NRs fortan "Integrierte Neuronale Representation", oder kurz: "INR"
Wenn eine INR stark ist, bedeutet das, dass sie in relativ vielen, moeglichst haeufig verwendeten NRs integriert ist. Sie ist schwach, wenn das Gegenteil der Fall ist.

Wenn diese INRs auch auf neuronaler Ebene mit einbezogen wuerden, muesste nur eine aller NRs, die die INR enthalten, verwendet werden, so dass es zur gleichzeitigen Nutzung dieser INR kommt.

Wenn eine INR in sehr vielen NRs vorkommt, ist die Frequenz ihrer Verwendung also relativ hoch. Das fuehrt zu haeufiger Staerkung der an ihr beteiligten neuronalen Verbindungen.

Das wiederum verschafft ihr einen evolutionaeren Vorteil gegenueber weniger starken INRs. Die Konsequenz ist, dass sich starke INRs grundsaetzlich gegen schwache INRs durchsetzen. Da die individuelle NR eines Inputs sich praktisch nie wiederholt, sind im Gehirn nur INRs ueberlebensfaehig. Wir koennen uns also viel besser Dinge merken, wenn eine neue NR vollstaendig in bestehende NRs uebersetzt werden kann. Damit wird Konkurrenz zu bestehenden NRs weitesgehend vermieden, weil vorhandene neuronale Strukturen weiterverwendet werden. Wie diese Rekombination von NRs geschieht, muss natuerlich ebenfalls als NR oder besser als INR gespeichert werden. Auch hier gilt wieder das Prinzip: staerkere INRs setzten sich durch.

Von jetzt an nenne ich NRs, die durch bestehenden NRs zumindest teilweise konstruiert werden, "Rekonstruierte Neuronale Represaentationen" oder auch RNR.

Dieser Mechanismus ist auch praktisch gut nachvollziehbar.
Wenn man sich ueber ein Thema informiert, indem man lediglich Informationen auswendig lernt, dauert es nicht lange, bis man diese wieder vergessen hat. Wenn man andererseits begreift, was diese Informationen bedeuten, wie sie zusammenhaengen und vielleicht sogar noch Verbindungen und Parallelen zu anderen Themen erkennt, wird man sie viel besser im Gedaechnis behalten.
Woran liegt das?
Jede Information, die Rueckschluesse auf den Zusammenhaenge zwischen der individuellen NR des Auswendiggelernten und vorhandenen INRs zulaesst, hilft bei einer intelligenten Uebersetzung in eine RNR.
Selbst wenn eine neue NR vollstaendig integriert wird, ist damit jedoch noch nicht gleich das Optimum an Effizienz erreicht. Es kann naemlich durchaus verschiedene Alternativen geben, eine NR zu integrieren. Je staerker der Durchschnitt der INRs ist, mit welchen man die neue NR integriert, desto effizienter. Denn je besser man sich an die einzelnen Komponenten einer Information erinnert, desto klarer ist auch die Erinnerung an die daraus resultierende RNR.


Die natuerliche Selektion starker INRs fuehrt zwangslaeufig dazu, dass Informationen in unserem Gehirn nicht als individuelle Pakete gespeichert werden, sondern als hierarchische Struktur, die mit moeglichst wenig Basis-INRs auskommt, aus denen alle restlichen INRs und NRs rekonstruiert werden koennen.

Donnerstag, 20. September 2007

Intuitive Fragmentierung einer Situation

Seit meinem letzten Post ist einige Zeit vergangen, aber das soll sich nun aendern. Ich hoffe, demnaechst wieder mehr Zeit fuer einige Artikel zu haben.


Eine interessantes Thema der Neurowissenschaften ist das der Zusammenspiel von rationalem, "bewusstem" Denken und der Intuition.
Wie die Intuition arbeitet, habe ich bereits in einem fruheren Artikel abgehandelt.

Link: Menschliche Intuition

Von welchem Wesen unsere Logik ist, laesst sich schwierig sagen. Ob sie sich aus Mechanismen der Intuition, die zu absoluten Werten konvergieren koennen, entsteht und wir so zu mathematischen Gedankenmodellen faehig sind, die ohne Zweifel 100%ig exakt sind oder ob es wirklich eine einem Computer aequivalente cerebrale Struktur gibt, die anders funktioniert als die Intuition, ist heute nicht meine Thema.
Um keine Kompromisse einzugehen, behandele ich unsere Rationalitaet deswegen einfach als (mathematische) Logik, als die wir sie normalerweise wahrnehmen, ohne genauer zu klaeren, wie sie erzeugt wird.

Die Sprache der Rationalitaet ist die Mathematik. Wir koennen, ausgehend von bestimmten Vorraussetzungen, voellig analytisch weitere Aussagen treffen, die aus diesen Vorraussetzungen folgen.

Mathematik ist objektiv. Definiert man bestimmte Axiome, koennen daraus feste Zusammenhaenge bewiesen werden. Sie sind niemals in sich widerspruechlich.

Die berechtigten Einwaende sind dann aber:

Warum kommen wir oft genug zu falschen Ergebnissen, selbst wenn wir unseres Wissens nach nur logisch geschlussfolgert haben?

Wenn Logik mathematisch und Mathematik objektiv ist, folgt daraus nicht, dass wir ebenfalls objektiv daechten, wenn wir nur Logik in unseren Gedanken gelten liessen?

Genau das taeten wir auch, aber nicht ohne Grund steht der vorangegangene Satz im Konjunktiv. Der Versuch, voellig analytisch zu denken, scheitert an der begrenzten Rechenkraft unseres Gehirns.
Es kann zwar mit mindestens 1000-facher Geschwindigkeit arbeiten wie aktuelle Supercomputer, aber selbst das reicht nicht aus.
Nichts ist schwieriger, als die Berechnung der Realitaet. Selbst Supercomputer tun sich schwer damit, das Wetter ueber einige Tage einigermassen genau vorherzusagen. Dabei sind sie inzwischen in der Lage, mehrere hundert Billionen Rechenschritte pro Sekunde zu bewaeltigen.

Woran das liegt, laesst sich leicht an einem Schachspiel nachvollziehen. Solange man nur einen Zug weit denkt, kann man das Geschehen auf dem Brett noch ganz gut ueberblicken. Aber schon bei zwei Zuegen Planung in die Zukunft entstehen eine Vielzahl von Varianten, wie die Figuren in Zukunft positioniert sein koennten. Naemlich zunaechst mal alle Varianten fuer den ersten Zug und dann noch fuer jeden einzelnen dieser Zuege alle Moeglichkeiten eine weitere Figur zu setzen.
Das Wachstum an potenziellen Spielsituationen erfolgt also exponentiell. Angenommen, es gaebe in einem Schachspiel bei jeden Zug durchschnittlich 20 Varianten, irgendeine Figur irgenwohin zu setzen(im Rahmen der Regeln), dann ergaeben sich fuer 2 Zuege schon 20x20, also 400.
Wenn ein Schachspiel insgesamt 50 Zuege andauert, waeren das ungefaehr 20^50 (20 hoch 50) moegliche Spielverlaeufe. Selbst ein Computer mit der Rechenkapazitaet unseres Gehirns, wuerde allerdings laenger dafuer rechnen als das Universum alt ist!

Und weil die Realitaet viel komplexer ist als ein Schachspiel, laesst sie sich noch viel weniger vorrausberechnen.
Wettersimulationen sind aus diesem Grund nur grobe Modellrechnungen, die zu entsprechend ungenauen Ergebnissen fuehren. Viele Details werden ausgelassen, um nicht unnoetig viel Rechenzeit zu verbrauchen. Je nach dem, mit welcher Genauigkeit welche Werte berechnet werden sollen, werden nur die Parameter beachtet, die einen angemessen grossen Einfluss auf diesen Wert haben.

Zwar ist das menschliche Gehirn viel leistungsfaehiger als heutige Computer, aber durch das exponentielle Wachstum an Komplexitaet bei linearer Zunahme an Parametern stellt die Realitaet unser Denkorgan schnell vor das selbe Problem wie den Wettersimulator oder einen Schachcomputer.

Wir sind also ebenfalls auf vereinfachte Rechnungen angewiesen, bzw. vereinfachte logische Schlussfolgerungen.


An diesem Punkt setzt unsere Intuition ein. Durch intuitive Entscheidungen vereinfachen wir so weit unsere uns zugaenglichen Informationen, bis wir komfortabel genug mit diesen "rechnen" koennen.
Wie in meinem Artikel ueber die menschliche Intuition erlaeutert, verhaelt sich diese nach einer unterbewussten neuronalen Representation empirischer Daten ueber Auswirkungen von Reaktionen im Laufe des Lebens und genetischen Anlagen die sich im Zuge der Evolution gebildet haben.

Link: Menschliche Intuition

Da Intuitionen lediglich auf Statistiken beruhen, greift ihre Ausfuehrung nur auf Erwartungswerte zurueck und sie sind genaugenommen nichts anderes als pavlovsches Verhalten. Je komplexer eine neue Situation, desto unwahrscheinlicher ist es auch, bereits aehnliches erlebt zu haben. Damit sinkt auch die Trefferquote fuer rein intuitives Verhalten. Wenn der Hund auf den Strassen rumstreunt und die Kirchenglocke hoert, sabbert er mit ziemlicher Sicherhiet umsonst.

Ein effektiverer Einsatz von Intuition waere die Fragmentierung von Situationen. Verschiedene Merkmale der momentanen Umwelt wurden vielleicht schon in anderem Kontext erlebt. Je einflussreicher jedes dieser Fragmente in den jeweiligen Erfahrungen war, desto besser. Das steigert die Wahrscheinlichkeit, dass die Intuition bei einem einzelnen Fragment richtig liegt.

Aber was bringt nun diese intuitive Fragmentierung?

Jetzt kommen wir wieder zur Logik. Ein Fragment steht fuer ein temporaeres Axiom, dass nun in einer rationalen Schlussfolgerung verwendet werden kann, um die richtige Reaktion zu erschliessen. Temporaer ist das Axiom, weil jede Erfahrung die Intuition beeinflusst.
Eine Reaktion bezeichne ich als richtig, wenn sie moeglichst gut zu dem beabsichtigten Ziel fuehrt.

Jedes Fragment besitzt ein Gewicht, das seiner Relevanz in der Situation entspricht. Von den Fragmenten ausgehend kann es zum mathematischen, also objektiven Ergebnis kommen, indem mit ihnen gerechnet wird, bzw. "logisch gedacht". Dieses muss nicht durch eine mit Hilfe der Fragmente gebildeten kausalen Kette entstehen, sondern kann sich wieder aus einer Statistik ergeben. Der Grund dafur waere, dass die einzelnen Fragmente nicht ausreichend oder nur teilweise kausal in Verbindung gebracht werden koennen und so bei vollem Bewusstsein mehr durch ihr Gewicht miteinander konkurrieren, so dass es zu einer Art demokratischem Beschluss kommt.
Gerade bei widerspruechlichen Intuitionen der Fragmente kommt dieses System zu tragen. Ich gehe davon aus, dass bei beinahe jeder Entscheidung sowohl kausale, als auch statistische Verfahren zur Auswertung der Fragmente verwendet werden.

Objektiv ist dabei natuerlich trotzdem nicht der gesamte Denkprozess, sondern nur der rationale Teil. Die Fragmente fuer sich sind nach wie vor Produkte von Intuition. Deren Unsicherheitsfaktoren gehen deshalb auch wieder in das Endergebnis ein. In vielen Faellen ist das aber immer noch vorteilhafter, als wenn man seiner Intuition komplett das Ruder ueberliesse.

Doch das gilt nicht unbedingt. Ich habe mal ueber eine Studie gelesen, bei der erfahrene Broker und Laien in selbst zusammengestellte Fonds investieren sollten. Im Durchschnitt hatten die Laien am Ende der Studie ein leicht besseres Geschaeft gemacht als die Broker. Dieses Beispiel verdeutlicht, wie die vermeintlich rationale Analytik, die Broker zu ihrem Vorteil nutzen wollten, mehr Risiken bergen koennen als die intuitive Wahl der Laien.

Eine zwanghafte Rationalisierung der Gedanken ist aus diesem Grund nicht unbedingt vielversprechend, weil sie leicht zu logischen Fehlern fuehrt.
Vor dem Hintergrund der intuitiven Fragmentierung ist auch leicht zu begreifen, warum es besser sein kann, "nach Gefuehl" Entscheidungen zu treffen. In Situationen, bei denen es schwierig ist, kausale Zusammenhaenge zwischen Fragmenten dieser Situation zu erkennen, kann die Wahrscheinlichkeit, stattdessen Korrelationen miszuinterpretieren, groesser sein, als die Wahrscheinlichkeit, dass einen die pure Intuition truegt.

Dienstag, 29. Mai 2007

Universelle Natuerliche Selektion

Ich will heute ueber ein Theorie schreiben, die das Fundament vieler meiner Ueberlegungen und Schlussfolgerungen bildet.
Vor etwa einem Jahr kam ich zusammen mit einem Freund auf den Gedanken, die Mechanismen der Evolution nach dem darwinistischen Prinzip auf alles Existierende anzuwenden.

Um erstmal ein wenig Klarheit zu schaffen ueber die Vorraussetzungen, von denen ich ausgehe, moechte ich zunaechst noch einmal die Funktionsweise der Evolutionstheorie von Charles Darwin und die Veerbung durch Weitergabe der DNA erlaeutern, so wie ich sie verstehe:

Stelle man sich eine Spezies vor, die sich ausschliesslich von Blaettern einer bestimmter Art von Baeumen ernaehrt. Ich nenne diese Spezies mal die Blaetterfresser, die Baeume Gruenbaeume und deren Blaetter sind die Gruenblaetter. Bei den Gruenbaeumen beginnen die Blaetter bei einer durchschnittlich Hoehe von etwa einem Meter. Der ganze Baum wird durchschnittlich 5 Meter hoch. Die Blaetterfresser sind normalerweise so gross, dass sie, wenn sie ihren Kopf heben, von unten die Gruenblaetter gerade eben noch erreichen.
Wenn sich zwei Blaetterfresser fortpflanzen, wird die DNA beider Elternteile neu kombiniert zur DNA des Kindes. Bei dieser Rekombination kommt es zu zufaelligen "Fehlern", die man Mutationen nennt. Welche Auswirkungen diese auf das Kind haben werden, variiert sehr stark.
Eine Moeglicheit waere, dass sie zu einem geringerem Wachstum fuehren.
Das aber, ist fuer einen Blaetterfresser fatal, denn sie kommen auch mit normaler Groesse nur so gerade eben an die lebenswichtigen Gruenblaetter. Die Folge ist offensichtlch. Das kleinwuechsige Tier wird Schwierigkeiten haben, sich zu ernaehren und damit geringere Ueberlebenschancen.
Das bedeutet wiederum schlechtere Chancen, sich fortzupflanzen.
Fortpflanzung ist aber fuer die Blaetterfresser die einzige Moeglichkeit, ihre Erbinformationen ueber ihre Lebzeiten hinaus zu erhalten, wie fuer alle bekannten Organismen. Keine guten Nachrichten also fuer den klein geratenen Blaetterfresser. Die Wahrscheinlichkeit, dass seine Gene es in eine naechste Generation schaffen, sind unterdurchschnittlich. Das ist zwar nicht so erfreulich fuer den Betroffenen, aber vorteilhaft fuer die ganze Spezies. Denn je mehr Individuen mit kleineren Ueberlebenschance, desto staerker ist auch die Existenz der Spezies bedroht. Nachteilhafte Gene sind also nicht durchsetzungsfaehig.

Als Gegenbeispiel koennte das Kind zweier Blaetterfresser aber auch Opfer einer Mutation werden, die ihn aussergewoehnlich hochwachsen laesst.
Das waere von enormen Vorteil, denn dann staenden ihm nicht nur die untersten Gruenblaetter als Nahrung zur Verfuegung, sondern auch welche, die hoeher laegen. Daraus folgt eine ueberdurchschnittliche Ernaehrung woraus eine ueberdurchschnittliche Gesundheit folgt, woraus ueberdurchschnittliche Chancen zur Fortpflanzung folgen und damit auch eine ueberdurchschnittliche Wahrschienlichkeit, dass sich sein "Wachstumsgen" durchsetzt.
Vorteilhafte Gene setzen sich also durch.

Das Modell der Blaetterfresser habe ich mir zwar ausgedacht, aber das Prinzip ist auch in der Realitaet immer das selbe. Da es nicht immer um Blaetter und Koerpergroesse geht, sondern um alle Arten von Eigenschaften und Umweltbedingungen, kann allgemein gesagt werden, dass eine besserer Anpassungsfaehigkeit an die Umwelt sich langfristig durchsetzt.
Es handelt sich dabei um die sogenannte natuerliche Selektion.

Darwin bezog sich in seinem Buch "The Origin of Life" auf Lebewesen.
Aber ist das wirklich noetig?
Wenn man genau hinschaut, findet man natuerliche Selektion ueberall.
Am Strand findet sich der feinste Sand am weitesten vom Wasser entfernt, waerend sich in auf der Hoehe der Brandung oft mehr Steine liegen, so als wenn sie sortiert waeren. Man kann leicht erklaeren, wie es dazu kommen kann, wenn man die Wasserkraft, die Masse der Steine und das Gefaelle des Strandes betrachtet.
An dieser Stelle sollen uns die Details nicht interessieren. Es reicht aus, zu wissen, dass natuerliche Kraefte hier zu einer Selektion gefuehrt haben.
Natuerliche Selektion kann tritt also auch bei leblosen Objekten auf.

Ein anderes Beispiel waeren Moralvorstellungen, Religionen und Ideologien.
Wie Organismen koennen sie sich ausbreiten oder in Vergessenheit geraten.
Je nach dem, ob viele Menschen sie uebernehmen, ob sie anpassbar sind und wie sehr sie mit anderen gesellschftlichen Entwicklungen harmonieren. Abermals wird voellig natuerlich selektiert.

Natuerliche Selektion ist also auch nicht an DNA gebunden oder an einer bestimmten Art der Fortpfanzung.
Bei genauerer Betrachtung sind wir zu dem Schluss gekommen, dass es keine Existenz ohne natuerliche Selektion geben kann.

Ein Objekt, das sich in einer Umwelt befindet, existiert immer mit einem gewissen Grad an Harmonie mit ihr. Damit meine ich, die Umwelt stoert in einem bestimmten Grad den Zustand des Objekts. Je staerker der Stoerfaktor, desto mehr steht das Objekt im Konflikt mit seiner Umwelt. Die Stoerung fuehrt zur Veraenderung des Objekts und der Umwelt hin zu einem harmonischerem Zustand. Eigenschaften von Objekt und Umwelt werden so automatisch selektiert, so dass sie einander weniger entgegen wirken.
Anschaulich kann man sich diesen Vorgang am Beispiel eines Baches verdeutlichen. Das Wasser fuegt sich den unterschiedlichen Widerstaenden des Bodens und der Vegetation, waehrend es im Gegenzug den Boden aushoehlt und Steine glatt schleift.

Zusammengefasst koennte man Evolution durch natuerliche Selektion als universelles Prinzip aufzufassen. Es liegt daher nahe, zu ueberlegen, ob es sich bei ihr um ein Naturgesetz handele.

Naturgesetze (www.wissen.de)

Laut dem Internet-Lexikon www.wissen.de werden Naturgesetze als Versuche des Menschen beschrieben, "die Eigengesetzlichkeit der Natur in Funktionsbeziehungen zu fassen".

Also zum Beispiel bei dem bekannten Zusammenhang zwischen Masse und Energie mit der Formel:
E=m*c^2
Und in Worten:
Masse, umgewandelt in Energie, ist das Produkt dieser Masse mit dem Quadrat der Lichtgeschwindigkeit.


Das Folgende ist mehr Spekulation als auf fundiertem Wissen aufgebaute Schlussfolgerungen:

Die ueblichen Naturgesetze beschreiben aus meiner Sicht nur Relationen von physikalischen Groessen, wie Energien, Kraeften oder Feldern. Dazu kommen eine ganze Reihe von Konstanten, die als von der Natur vorgegeben betrachtet werden und fuer das ganze Universum gueltig seien.

Naturkonstanten (www.szallies.de)

Die natuerliche Selektion sehe ich aber als einen Vorgang, der in keiner festen Relation zu irgendwelchen Naturgesetzen steht.
Denn was man in einem betrachtenden Fall als Objekt sieht und was als Umgebung, ist eine Frage der Interpretation. Letztlich kann alles beide Rollen einnehmen.
Allerdings habe ich auch noch keine gute Idee, wo man natuerliche Selektion einordnen sollte, wenn man sie schon nicht in eine klassische Funktion stecken kann.

Montag, 21. Mai 2007

Singularity Institute for Artificial Intelligence

Wer mal sehen will, wer sich im Moment mit Singularitaet beschaeftigt und was die Ziele und Herangehensweisen des SIAI sind, kann sich dieses Video mal anschauen.

Samstag, 12. Mai 2007

Singularitaet und Ethik

Also vielleicht erscheint meine Beschreibung des Bewusstseins eher dem Versuch, die Arbeitsweise einer kuenstliche Intelligenz zu beschreiben. Ich glaube jedenfalls, das der Unterschied gar nicht mal so gross sein muss.
Um ehrlich zu sein, will ich auch genau das erreichen...

Wenn es funktioniert, waere man der Singularitaet vielleicht ein Stueck naeher. Und das wollen wir doch alle, oder?;-)

Fuer alle die noch nicht davon ueberzeugt sind, hier nochmal ein Link:
http://www.singinst.org/

Ok, es gibt Argumente, die die Frage aufdraengen, wie spassig Singularitaet wirklich ist. Diese sollte man auch ernst nehmen und zusammen mit den Vorteilen kritisch durchleuchten. Meistens kommt dabei die liebe Moral ins Spiel und dann wird alles doppelt kompliziert.

Mit diesen Fragen wird man sich auch in der Politik vermehrt herumschlagen muessen -
wie schon heute bei der Gentechnik...

Hier werde ich auch mal was dazu posten. Wann das sein wird, kann ich nicht sagen.
Jedenfalls wird es schwierig werden, dabei nicht zu subjektiv zu sein.

Bewusstsein

Eines der groessten Raetsel der Gehirnforschung ist nach wie vor das menschliche Bewusstsein.

Wie koennen wir "wissen", dass wir etwas tun?
Was bedeutet es, dass ich mir bewusst bin, dass der vorangegangene Satz vor einigen Sekunden von mir selber mit meiner Tastatur getippt worden ist?
Wenn wir in den Spiegel schauen, "wissen" wir, dass es sich um "uns" handelt.

Wir koennen uns kaum rational vorstellen, wie so etwas funktionieren soll, so wie uns logisch erscheint, das ein Apfel von seinem Baum zur Erde faellt und nicht von ihr weg, weil die Gravitation der Erde auf andere Massen anziehend wirkt(und auch umgekehrt).

Dennoch muss etwas existieren, das uns zumindest glauben macht, wir waeren uns Sachen bewusst. Wie bei der Intuition glauben beim Bewusstsein viele Menschen daran, dass es sich um etwas "hoeheres" handle. Bei dem speziellen Charakter des Bewusstseins ist das nachvollziehbar. Ich finde diese Erklaerung allerdings wenig zufriedenstellend...

Die Arbeitsweise unseres Gehirns koennte folgendermassen betrachtet werden:

Unser Gehirn besteht schaetzungsweise aus ca. 100 Milliarden Neuronen und jeweils ca. 1000 Verbindungen zu anderen Neuronen.
Unsere Gedanken bestehen aus einem standigen Feuern elektrischer Impulse ueber diese Verbindungen.
Unser Koerper nimmt staendig eine Flut von Informationen auf, der Input, der unter anderem durch diese Impulse verarbeitet wird.
Nach welchen Mechanismen diese Verarbeitung stattfindet und welchen Einfluss Hormone und sonstige Stoffe darauf haben, ist noch relativ unklar.

Man kann aber davon ausgehen, dass diese Information auf irgendeine Art im Gehirn wieder representiert werden. Ich nenne das mal Neuronale Representation(NR).

Die NR ist eine abstrakte Widerspiegelung der Realitaet.
Das koennte z.B. durch eine Kombination verschiedener Feuerraten innerhalb einer Gruppe von Neuronen realisiert werden. Jedes Neuron hat dann eine bestimmte Aufgabe.
(Z.B. dass es mit einer Rate von 50 mal pro Sekunde zu Neuron Nr. 345 feuert, von den 1000, mit denen es verbunden ist)
Auch immer, wenn eine Erinnerung aufgerufen wird, tritt diese NR des Erinnerten hervor. Erinnerungen waeren demnach nur eine Speicherung dieser neuronalen Representationen.
In welcher NR sich ein Neuron einordnet, wird davon bestimmt, welche Impulse es von anderen Neuronen erhaelt. Auf ein spezielles Impulsbild reagiert es wiederum mit einer spezielle Feuerate zu anderen Neuronen. Wie es genau auf was reagiert, ist folglich ein Puzzlestueck der Erinnerung an eine NR. Wie die genauen Puzzlestuecke gespeichert werden, ist noch eine andere Frage (aktuelle Untersuchungen deuten darauf hin, dass sie sich in DNA-Sequenzen von Neuronen befinden koennten).

Da es sich nur um abstrakte Reflektionen handelt, sind NRs keine vollstaendigen Abbildungen des Inputs, sondern eine nach internen Prioritaeten geordnete Representation der originalen Informationen. Die interne Priotaet richtet sich nach der Uebereinstimmung mit der Summe bereits gespeicherter Informationen anderer NRs.
Dabei spielt auch eine Rolle, welche Prioritaet die Information bei anderen NRs geniesst (Externe Prioritaet). Kleinere externe Prioritaeten haben einen kleineren Einfluss auf die Summe aller Uebereinstimmungen.
Dabei gilt, dass mit sinkender Uebereinstimmung die interne Prioritaet steigt. Denn weniger Uebereinstimmung bedeutet hoehere Individualitaet. Je kleiner die interne Prioritaet, desto weniger wird die Information in einer NR beruecksichtigt.

Wenn wir uns nun einer Erinnerung bewusst werden, heisst das, wir versuchen mit Hilfe einer NR ein geistiges, dem tatsaechlichen Input entsprechendes Bild zu erstellen(nicht nur visuell).
Die Unvollstaendigheiten werden mit Hilfe anderer NRs ausgefuellt, wobei haeufig vorkommende Informationen bei moeglichst aehnlichen NRs bevorzugt werden.

Wenn wir uns bewusst werden, dass, wenn wir ein Haus sehen, es ein Haus ist, gleichen wir ein aus dem neuen Input erstelltes NR dieses Hauses ab mit alten NRs und verpnuepfen es daraufhin mit aehnlichen NRs. Verknuepfungen koennten mit ihrer NR gemeinsam gespeichert werden.

Es gibt ausserdem auch NRs, die uns selbst representieren. Unseren Output koennen wir auch als Input erkennen und mit aelteren NRs unserer selbst vergleichen.
Wenn wir ueber uns selbst nachdenken, kommt das also einem staendigen Vergleich zwischen NRs unserer eigenen Person gleich.

Determinismus

Einige meiner zukuenftigen Posts werden sich auf Determinismus beziehen.
Darum will ich an dieser Stelle erklaeren, was ich darunter verstehe.

Angenommen, man wuesste die genaue Position, Geschwindigkeit, Gravitation und jegliche Art physikalischer Eigenschaft jeden Elementes im Universum. Dann koennte man theoretisch genau vorraus berechnen, wie sich diese Elemente, z.B. Atome, in den naechsten 10 Sekunden genau zueinander verhalten. Da alle Informationen ueber alle Elemente vorhanden waeren, koennte man aber auch beliebig weit in die Zukunft rechnen und sie sozusagen vorraussehen.

Praktisch ist das natuerlich nicht moeglich. Wir haben nicht alle Informationen und auch keinen Computer der alles gleichzeitig verarbeiten keonnte, ohne dass er laenger dazu braeuchte, als die Zeitspanne, die er eigentlich berechnen soll.

Aber es reicht aus, zu wissen, dass es theoretisch moeglich waere.
Wenn also alles berechenbar ist, gibt es auch keinen Zufall. Alles was wir als Zufall sehen, ist
nur eine Konsequenz von unbekannten Parametern.

Damit ist alles gewissermassen vorherbestimmt, also determiniert.
Wenn ich in Zukunft von Determinismus spreche, meine ich diese Art von Berechenbarkeit.

Ob die Welt tatsaechlich deterministisch ist, kann nicht experimentell ueberprueft werden.
Man kann einen allgemeinen Determinismus aber aus dem Determinismus der Naturgesetze ableiten.

Ein Gebiet der Physik, das dem moeglicherweise widerspricht, ist die Quantenmechanik.
Ich kenne mich nicht genuegend damit aus, um bewerten zu koennen, inwiefern sie Determinismus ausschliesst. Soweit ich weiss, hat es bislang auch noch keine Antwort auf diese Frage gegeben.

Dienstag, 8. Mai 2007

Antipathie fuer Mathematik

Mathematik ist nicht gerade beliebt in unserer Gesellschaft. Ein Freund von mir hat mir heute einen, wie ich finde, sehr treffenden Artikel der FAZ dazu geschickt:

http://www.faz.net/s/Rub7FC5BF30C45B402F96E964EF8CE790E1/Doc~E15F755FE4B4344F186347211A81C3FBA~ATpl~Ecommon~Scontent.html


Es koennte aber der Eindruck entstehen, dass hier Geisteswissenschaftler kollektiv als
Scharlatane abgestempelt werden. Ich glaube nicht, dass das die Aussage des Artikels sein soll,
aber sollte es doch so sein, stimme ich in diesem Punkt nicht mit ihm ueberein.

Allerdings laesst sich in Geisteswissenschaften Kompetenz sehr viel schwieriger messen. Das bietet deutlich mehr Moeglchkeiten, sich durchzumogeln. Dass diese Eigenschaft anziehend auf Studenten wirkt, ist offensichtlich.
Das heisst natuerlich nicht, es gaebe keine faehigen Geisteswissenschaftler.

Montag, 7. Mai 2007

Menschliche Intuition

Durch Intuition treffen wir oft unbewusst Entscheidungen, die sich nachtraeglichlich als vorteilhaft herausstellen.
Die Frage, was unsere Intuition ausmacht, ist noch nicht eindeutig geloest.
Sie wird deswegen oft symbolisch als sechster Sinn bezeichnet, also eine Art uebernatuerliche Kraft.

Wissenschaftlich gesehen, gaebe es allerdings eine andere Erklaerung:

Wenn man Intuition als nicht erklaerbar bezeichnet, ist damit meistens gemeint,
dass sie sich unserer Logik entziehen wuerde. Sie wuerde nicht mit logischen Schlussfolgerungen arbeiten.
Wenn man sich nun die Evolution in der Natur anschaut, ist die Umwelt eines Organismus immer der bestimmende Faktor, nach dem sich die naturliche Selektion richtet.
An die Umwelt angepasste Eigenschaften bringen einen potenziellen Vorteil bei der Fortpflanzung mit sich. Statistisch gesehen, setzt sich langfristig also eine bessere Anpassung durch.
Entscheidend ist dabei, dass die Umwelt als Gesamtes immer miteinbezogen wird.


Daraus laesst sich schliessen, dass unser Verhalten stark durch Erfolgsstatistiken bestimmt wird. Das, was am haeufigsten zum Erfolg fuehrt, wird entschieden. Nicht unbedingt das, was wir als streng logisch empfinden. Das hat den Vorteil, dass man nicht "aus Versehen" irgendwelche Parameter nicht mit einbezieht, sondern allein nach einer unsichtbaren Erfolgsstatistik entscheiden, je nach Situation. Ein bewusstes Nachdenken ist also nicht noetig, um eine hohe Trefferquote an vorteilhaften Entschiedungen zu erreichen.
Nun ist das Bewusstsein eine relativ "neue" Entwicklung in der Evolution.
Wenn man uebernatuerliche Kraefte ausschliesst, blieb bis zur Entwicklung vom Bewusstsein also andere keine Moeglichkeit, moeglichst angepasstes Verhalten zu entwickeln,
als ueber auf Erfahrung basierende Erfolgsstatistiken.
Diese Faehigkeit ist von enormen Vorteil. Deswegen kann man davon ausgehen, dass sich auch Gene durchgesetzt haben, die eine solche Entwicklung foerdern.

Es gibt dazu eine Reihe von Studien, die empirisches Verhalten beim Menschen nachweisen.

Nun ist bekannt, dass es eine Art Unterbewusstsein gibt. Man kann damit alle Gedanken in unserem Gehirn zusammen fassen, die wir nicht bewusst verarbeiten.
Ausserdem hat es Einfluss auf unser aeusseres Verhalten, ohne dass wir uns bewusst sein koennen, wie dieser Einfluss entsteht, weil es eben unterbewusst geschieht.

Nun unterliegt aber all unser Verhalten und damit auch das Unterbewusstsein statistischer
Vorgehensweise. Es koennen also unterbewusst auf solche Statistiken basierende Entscheidungen getroffen werden, so dass wir uns nicht bewusst sind, wie diese zu Stande gekommen sein sollten, obwohl sie unser Verhalten beeinflussen. Genau das kann man als unsere Intuition bezeichnen.

Das heisst nicht, dass wir nicht in der Lage waeren, logische Schlussfolgerungen zu ziehen. Das ist allerdings erst eine Moeglichkeit, die sich durch unser Bewusstsein eroeffnet hat.
Dazu werde ich zu einem spaeteren Zeitpunkt wohl auch noch einiges schreiben.

Sonntag, 6. Mai 2007

Singularity

Mein zweiter Eintrag soll sich dem Titel meines Blogs widmen.

Nicht ohne Grund habe ich Singularity gewaehlt.
Erstmal will ich eine Zusammenfassung formulieren,
in der ich nicht jedes Detail genau belegen werde.
Aber durch kurzes Googlen kommt man schnell zu entsprechenden Quellen.

Ich halte es fuer sehr wahrscheinlich dass innerhalb dieses Jahrhunderts
eine sogenannte "Singularity of Technology" eintreten wird.
Darunter ist die kuenstliche Erschaffung von Intelligenz, die die des Menschen uebertrifft, zu verstehen.
Die Anfaenge dieser Entwicklung lassen sich bereits heute beobachten.
Das Gesetz von Gorden Moore, dass dieser 1975 verfasste, sagte vorraus, dass
sich alle zwei Jahre die Anzahl der Schaltkreiskomponenten eines Computerchips
verdoppeln wuerden - bei gleichbleibenden Kosten.
Das kommt uebrigens einer Verdoppelung der Geschwindigkeit in etwa gleich.

Tatsaechlich wurde dieses Gesetz, abgesehen von wenigen Unregelmaessigkeiten,
bis heute eingehalten.

http://de.wikipedia.org/wiki/Mooresches_Gesetz

Der vermehrte Einsatz von Computern in der Industrie hat dazu gefuehrt, dass
sich aehnliche Gesetze auf diverse Bereiche ausgebreitet haben.
Beispiele waeren die Aufloesung von Displays, Internetbandbreiten und digitaler
Speicherplatz.
Diese Entwicklung wird auch "digitale Revolution" genannt.

Man koennte nun in die Zunkunft extrapolieren, wie lange es dauern wird, bis man
die Kapazitaet eines menschlichen Gehirns erreicht.
Dazu muesste man natuerlich erst mal wissen, wie schnell unser Gehirn ueberhaupt potenziell arbeiten kann. Aus der Feuerrate von Synapsen und deren Anzahl kann eine theoretische Geschwindigkeit errechnet werden.
Ohne an diesem Punkt eine Zahl zu nennen(da muesste ich noch mal recherchieren),
wird man diese Geschwindigkeit bei Produkten fuer den Endverbraucher in ungefaehr 20 bis 40 Jahren erreichen.
Das ist, zugegeben, eine sehr ungenaue Angabe, aber Parameter wie der Umstieg von den klassischen Chips und Faktoren, die die Leistung des Gehirns in unbekanntem Masse beeinflussen, lassen keine genauere Schaetzung zu.
Selbstverstaendlich koennte es auch noch deutlich laenger dauern.
Man bedenke dabei allerdings, dass das Mooresche Gesetz zu einer 1000-fachen Steigerung der Geschwindigkeit alle 20 Jahre fuehrt.
Man muesste mit der Berechnungen der Gehirngeschwindigkeitschon gewaltig daneben liegen , so dass man dieses Jahrhundert doch noch nicht diese Refererenz mit Computern uebertraefe.
Das ist selbstverstaendlich dennoch nicht auszuschliessen.

Nun mal angenommen, man erreicht diesen Punkt irgendwann. Kurz danach wuerden
Computer mit ihrer Geschwindigkeit die Faehigkeit unseres Gehirns mit Leichtigkeit
uebertreffen koennen, vorrausgesetzt, die entsprechende Software wuerde ebenfalls
in der Lage sein, menschliches Verhalten zu simulieren. Im Moment entwickelt sich die Software allerdings eher mit hoeherer Geschwindigkeit, als die Hardware.

Was dann folgt, ist die Singularitaet:
Sobald man solch eine kuenstliche Intelligenz geschaffen hat, wird es diese noch leichter haben, sich selbst zu verbessern und diese verbesserte KI wird sich wiederum schneller verbessern keonnen.
Dieser rekursive Kreislauf wuerde zu einem enormen Anziehen der Entwicklungsgeschwindigkeit fuehren.
Die Konsequenz ist eindeutig, aber fuer die meisten Menschen sicher nicht so leicht zu
verkraften: Der Mensch von heute hat spaetestens ab dann ausgedient als fuehrende Spezies!

Nun kann man aber davon ausgehen, dass sich die Menschen im Laufe der folgenden Dekaden
ebenfalls selber immer mehr mit technischen Erweiterungen aussstatten werden.
Gedanken-gesteuerte Prothesen sind beispielsweise schon im Einsatz. Und auch die Allgegewaertigkeit des Internets fuehrt zu gesteigerter Arbeitseffizienz - wenn man in der Lage ist, mit der Informtionsflut auch umzugehen.
Tiefere Eingriffe in das menschliche Gehirn sind nur noch eine Frage der Zeit.
Jede Art von kuenstlichen Eingriffen kann also zu Sinularitaet fuehren.

Dadurch keonnte aber auch der Mensch durch seine eigene Technisierung diese Singularitaet herbeifuehren, ohne dass es noetig waere, eine komplett unabhaenige KI
zu entwickeln.

Es existiert eine Organisation, das Singularity Institute for Artificial Intelligence(SIAI), die sich intensiv mit diesem Thema beschaeftigt. Die Internetseite ist sehr informativ, aber auf Englisch gehalten:

http://www.singinst.org/


Das wars fuers erste. Weitere Beitraege dazu werden folgen.

Einleitung

Ich eroeffne hiermit meinen persoenlichen Blog.
Diese "neuartige" Art der Publikation sehe ich als praktische Moeglichkeit,
meine eigenen Ideen und Eindruecke zu veroeffentlichen.
Thematisch geht es hauptsaechlich um Singularitaetsbezogene Dinge und Theorien ueber die Funktionsweise unseres Gehirns und die Erschaffung von kuenstlicher Intelligenz.
Ausserdem werde ich wohl ab und zu etwas zu technologischen Entwicklungen bemerken, die ich fuer wegweisend halte auf dem Weg zur Singularitaet.

Ich lade damit auch zum (kritischen) Kommentieren meiner Beitraege ein,
denn ein Feedback von aussen erscheint mir hilfreich zu sein, um
eigene Fehlschluesse zu entlarven und andere Perspektiven
in Ueberlegungen mit einzubeziehen.

Ich werde des oefteren Links setzen. Ich garantiere nicht dafuer,
dass sie zu zuverlaessigen Seiten fuehren. In der Regel sollte dies aber de Fall sein.
Unter anderem verwende ich auch Wikipedia Links.
Mein urspruenglichen Quellen sind damit nicht gleichzusaetzen.
Die Links stellen nur eine Stuetze dar.

Viele Aussagen werden etwas aus der Luft gegriffen wirken.
Ich werde deshalb mit detailliertereren Begruendungen auf entsprechende Kommentare
reagieren.

Ich hoffe, meine Ausfuehrungen werden einigermassen interessant sein,
so dass sich tatsaechlich einige dazu durchringen werden,
sie zu lesen oder gar zu kommentieren...