Freitag, 7. Dezember 2007

Integrierte Neuronale Representationen erklaeren gedankliche Assoziationen

Zunaechst ein Link einem meiner vorigen Artikel:

Hier geht es um Integrierte Neuronale Representationen (INR)

Ich definiere eine gedankliche Assoziation als eine unmittelbare auf einen Gedanken folgende weiteren Gedanken, der durch den ersten direkt oder indirekt ausgeloest wurde.
Darunter fallen auch Situationen, in denen der zweite Gedanke durch etwas angestossen wird, das die betreffende Person wahrnimmt, weil sich alles Wahrgenommene in einer Neuronalen Representation(NR) niederschlaegt und damit selbst zum Gedanken wird.

Mit dem Konzept der INR erklaeren sich gedankliche Assoziationen voellig natuerlich. Sei A eine beliebige NR. A ist aus Gruenden der natuerlichen Selektion (siehe Link) eine zumindest partielle Rekonstruktion aus INR (RNR). Sei nun B ebenfalls eine beliebige NR. Genau wie A ist sie natuerlich auch eine RNR.
Dann existiert eine Schnittmenge S an INR, die gleichermassen in A und B vorkommen. Je nach dem, wie gross S ist, desto weniger Modifikation von A ist notwendig, um B zu erhalten und andersherum. Dazu kommt noch die Staerke der INR in S von A und B. Ist diese sehr hoch bezueglich der INR von A, die sich nicht in S befinden, ist sehr wenig Muehe notwendig, um auf B zu kommen, da die INR in A, ausserhalb S dann relativ schwach sind, also keine grosse Rolle spielen. Analog dazu gilt das gleiche auch fuer B.

Interessanterweise ist daraus ersichtlich, dass man A mit hoeherer Wahrscheinlichkeit mit B assozieren koennte, als umgekehrt. Es ist sogar recht unwahrscheinlich, dass in beide Richtungen die gleiche Assoziationswahrscheinlichkeit gegeben ist, denn dazu muesste das jeweilige Verhaeltnis der Staerke der INR in S zu der Staerke der INR in A bzw. B genau gleich sein.
Statt nur zwei NR wie A und B einzubeziehen kann das ganze Modell auch auf beliebig viele NR ausgedehnt werden.

Die Wahrscheinlichkeit fuer Ueberschneidungen steigt natuerlich mit sinkender absoluten Zahl an existierenden INR. Die semantisch optimierte Integration von NR spielt da ebenfalls mit ein oder anschaulich gesagt, in Themengebieten, in denen man sich auskennt, kommen einem eher Assoziationen als woanders.

Semantisch speicheroptimierte Integration Neuronaler Representationen

Links zu vorige Artikel:

Herleitung zur hierarchischen Struktur der neuronalen Datenspeicherung

Ausgehend von der hierachischen Speicherung von Integrierten Neuronalen Representationen (INR) kann man sich einen Speicherbaum vorstellen, dessen erste Ebene aus den Basis-INR besteht, von denen jeweils wieder Abzweigungen zur zweiten Ebene gehen, die wiederrum jeweils aus der Menge der Basis-INR besteht und so weiter.

Wenn eine NR aus wenigen dieser INR zusammengesetzt werden kann, ist sie leichter zu speichern, weil dann auch weniger Verbindungen gespeichert werden muessen.

Da unser Gehirn nicht unbegrenzt Speicherplatz besitzt, kann man sich leicht vorstellen, die es effektiver ist, die Speicherung von Daten so zu optimieren, dass Themengebiete, mit denen man mehr zu tun hat, leichter im Gedaechtstnis bleiben, als andere. Die natuerliche Selektion sorgt automatisch dafuer , dass unser Speicherbaum und die Basis-INR so aufgebaut wird, dass die kuerzesten Wege zu "populaeren" Themen gehen auf Kosten von anderen NR, die jetzt vielleicht etwas komplizierter durch die Basis-INR kombiniert werden muessen, aber dafuer auch kaum verwendet werden. Es ensteht also eine semantisch orientierte Speicheroptimierung.

Praktisch zeigt sich das in unserer Gedaechsnisleistung, die je nach Thema schwankt.
Waehrend sich manche Menschen gut Zahlen merken koennen, bleiben ihnen Namen nicht lange im Gedaechtnis. Das Erinnerungsvermoegen laesst also darauf schliessen, wie gut sein Gehirn seine NR integriert, aber vor allem womit sich diese Person sonst geistig so beschaeftigt oder nicht. Das ist sicher keine neue Erkenntnis, aber durch INR laesst es sich vollstaendig analytisch erklaeren.
In der Informatik sind diese Speicherstrukturen uebrigens gang und gebe.