Spärmer verteilter Speicher

Spärmer verteilter Speicher (SDM) ist ein mathematisches Modell des Menschen Langzeitgedächtnis Vorgestellt von Pentti Kanerva 1988, als er bei war NASA Ames Research Center. Es ist verallgemeinert Arbeitsspeicher (RAM) für lange (z. B. 1.000 Bit) binäre Wörter. Diese Wörter dienen als beide Adressen an und Daten für den Speicher. Das Hauptattribut des Gedächtnisses ist die Empfindlichkeit gegenüber Ähnlichkeit, was bedeutet, dass ein Wort nicht nur durch Angeben der ursprünglichen Schreibadresse, sondern auch durch die Angabe eines in der Nähe von der Anzahl der nicht übereinstimmenden Bits (d. H. Das gemessen wird Hamming -Entfernung zwischen Speicheradressen).[1]

SDM implementiert die Transformation vom logischen Raum in den physischen Raum unter Verwendung einer verteilten Datendarstellung und -speicherin, ähnlich wie Codierung Prozesse im menschlichen Gedächtnis.[2] Ein Wert, der einer logischen Adresse entspricht, wird in vielen physischen Adressen gespeichert. Diese Aufbewahrung ist robust und nicht deterministisch. Eine Speicherzelle wird nicht direkt angesprochen. Wenn Eingabedaten (logische Adressen) teilweise beschädigt sind, können wir weiterhin korrekte Ausgabedaten erhalten.[3]

Die Theorie des Gedächtnisses ist mathematisch vollständig[1] und wurde überprüft von Computersimulation. Es ergab sich aus der Beobachtung, dass die Entfernungen zwischen Punkten von a Hochdimensionaler Raum ähneln den Näherungsbeziehungen zwischen Konzepte im menschlichen Gedächtnis. Die Theorie ist auch praktisch, als Erinnerungen, die darauf beruhen, mit konventionellem Umfang implementiert werden können Arbeitsspeicher Elemente.[4]

Definition

Das menschliche Gedächtnis neigt dazu Versammlung Erinnerungen Basierend auf Ähnlichkeiten zwischen ihnen (obwohl sie möglicherweise nicht verwandt sind), z. B. "Firetrucks sind rot und Äpfel sind rot".[5] Das spärliche verteilte Gedächtnis ist eine mathematische Darstellung des menschlichen Gedächtnisses und verwendet Hochdimensionaler Raum Um die großen Mengen an Gedächtnis zu modellieren, die das des menschlichen neuronalen Netzwerks nachahmt.[6][7] Eine wichtige Eigenschaft solcher hohen dimensionalen Räume ist, dass zwei zufällig ausgewählte Vektoren relativ weit voneinander entfernt sind, was bedeutet, dass sie nicht korreliert sind.[8] SDM kann als Verwirklichung von angesehen werden Lokalempfindliches Hashing.

Die zugrunde liegende Idee hinter einem SDM ist die Zuordnung eines riesigen binären Gedächtnisses auf einen kleineren Satz physikalischer Stellen, sogenannte harte Orte. Als allgemeine Richtlinie sollten diese harten Standorte im virtuellen Raum einheitlich verteilt werden, um die Existenz des größeren virtuellen Raums so genau wie möglich nachzuahmen. Jedes Datum wird von einer Reihe von harten Standorten gespeichert und durch Mittelung dieser Standorte abgerufen. Der Rückruf ist daher möglicherweise nicht perfekt, die Genauigkeit in Abhängigkeit von der Sättigung des Gedächtnisses.

Der Vorschlag von Kanerva basiert auf vier grundlegenden Ideen:[9]

  • 1. Der Boolesche Raum , oder Punkte in Dimensionen zeigen Eigenschaften, die den intuitiven Begriffen des Menschen zwischen den Konzepten ähnlich sind. Dies bedeutet, dass es sinnvoll ist, Daten als Punkte des genannten Raums zu speichern, in dem jedes Speicherelement als N-Bit-Vektor gespeichert wird.
  • 2. Neuronen mit N-Eingängen können als Adressdecoder eines Zufallszugriffsspeichers verwendet werden
  • 3. Prinzip für das Vereinigung: Daten, die in den Speicher gespeichert sind, können als Adressen für denselben Speicher verwendet werden. Der Abstand zwischen zwei Punkten ist ein Maß für die Ähnlichkeit zwischen zwei Speicherelementen. Je näher die Punkte, desto ähnlicher sind die gespeicherten Vektoren.
  • 4. Die Zeit kann im Speicher in Abhängigkeit vom Ort verfolgt werden, wo die Daten gespeichert werden, wenn die Daten als Ereignissequenzen organisiert werden

Der binäre Raum n

Das SDM arbeitet mit n-dimensionalen Vektoren mit binären Komponenten. Abhängig vom Kontext werden die Vektoren als Punkte, Muster, Adressen, Wörter, Speicherelemente, Daten oder Ereignisse bezeichnet. In diesem Abschnitt geht es hauptsächlich um die Eigenschaften des Vektorraums n = . Sei n Anzahl der Dimensionen des Raums. Die Anzahl der Punkte oder mögliche Speicherelemente ist dann . Wir werden diese Nummer durch N bezeichnen und n und verwenden n und verwenden auch für den Raum selbst stehen.[3]

Konzepte im Zusammenhang mit dem Raum N: [3]

  • Herkunft, 0: Der Punkt mit allen Koordinaten 0 wird als Ursprung bezeichnet, 0 = 000 ... 00.
  • Ergänzen, 'x: Das Komplement oder das Gegenteil von Punkt X ist das N-Tupel, in dem X Nullen hat und umgekehrt.
  • Norm, | x |: Die Norm von Punkt x ist die Anzahl derjenigen in seiner binären Darstellung.
  • Unterschied, x-y: Der Unterschied von zwei Punkten x und y ist das N-Tupel, in dem X und Y unterscheiden und woanders nuller werden. Es ist das Bitgewise 'Exklusiv oder': x - y = x ⊕ y. Der Unterschied pendelt: x - y = y - x.
  • Distanz, D (x, y) Der Abstand zwischen zwei Punkten x und y ist die Anzahl der Abmessungen, in denen x und y unterscheiden. Es wird als Hamming -Entfernung bezeichnet (seine quadratische Wurzel ist die Euklidische Entfernung) und wird in Bits ausgedrückt. Entfernung ist die Norm der Differenz: D (x, y) = | x - y |
  • Zwischenheit, x: y: z: Punkt y liegt zwischen den Punkten x und z, wenn und nur wenn der Abstand von x zu z die Summe der Entfernungen von x zu y und von y zu z ist; Das heißt, x: y: z ⇔ d (x, z) = d (x, y) + d (y, z). Es ist leicht zu erkennen, dass jeder Punkt dazwischen eine Kopie des entsprechenden Stücks eines Endpunkts ist.
  • Orthogonalität, x ⊥ y: Punkt x ist orthogonal zum Punkt y, oder die beiden sind senkrecht oder gleichgültig, wenn der Abstand zwischen den beiden die Hälfte der Abmessungen beträgt: x ⊥ y ⇔ d (x, y) = n/ 2. Die Entfernung n/2 wird als Gleichgültigkeit des Raums N bezeichnet. Wenn x orthogonal zu y ist, ist er auch orthogonal zu seinem Komplement 'y (x ist auf halbem Weg zwischen Y und' Y).
  • Kreis, O (r, x) Ein Kreis mit Radius R und Mitte X ist der Satz von Punkten, die höchstens r Bit von x: o (r, x) = {y | sind D (x, y) ≤ r}.

Eigenschaften des Raums N: [1][3]

Der Raum N kann durch die Eckpunkte des Einheitswürfels in n-dimensionalem dargestellt werden Euklidischer Raum. Die Eckpunkte liegen auf der Oberfläche eines n-dimensionalen Bereichs mit (euklidischem) Radius . Dies führt zu dem Kugel Analogie. Wir werden einen Raum sphärisch nennen, wenn

  • 1. Jeder Punkt X hat ein einzigartiges entgegengesetztes 'x,
  • 2. Der gesamte Raum liegt zwischen jedem Punkt x und seinem entgegengesetzten 'x, und
  • 3. Alle Punkte sind "gleich" (dh für zwei Punkte x und y bleibt eine Entfernung erhalten Automorphismus des Raums, der X auf Y kartiert, so dass der Raum aus einem seiner Punkte "gleich aussieht".

Die Oberfläche einer Kugel (im euklidischen 3D-Raum) ist eindeutig kugelförmig. Nach Definition ist N auch kugelförmig, da y ⊕ x ⊕ (…) ein Automorphismus ist, der x bis y kartiert. Weil n kugelförmig ist, ist es hilfreich, es als die Oberfläche einer Kugel mit zu betrachten Umfang 2n. Alle Punkte von N sind gleichermaßen als Herkunftspunkte qualifiziert, und ein Punkt und seine Komplement sind wie zwei Pole in der Entfernung N voneinander, wobei der gesamte Raum dazwischen ist. Die Punkte zwischen den Polen und senkrecht zu ihnen sind wie der Äquator.

Verteilung des Raums n

Die Anzahl der Punkte, die genau D -Bits von einem willkürlichen Punkt X (z. B. aus Punkt 0) sind Binomialkoeffizient:

Die Verteilung von n ist also die Binomialverteilung mit den Parametern n und p, wobei p = 1/2. Der Mittelwert der binomiale Verteilung ist n/2 und die Varianz ist n/4. Diese Verteilungsfunktion wird mit N (d) bezeichnet. Das Normalverteilung F mit mittlerem n/2 und Standardabweichung ist eine gute Annäherung daran: n (d) = pr {d (x, y) ≤ d} ≅ f {(d - n / 2) / / }

Tendenz zur Orthogonalität

Eine ausstehende Eigenschaft von N ist, dass das meiste davon in ungefähr der mittleren (Gleichgültigkeits-) Entfernung N/2 von einem Punkt (und seiner Komplement) liegt. Mit anderen Worten, der größte Teil des Raums ist fast orthogonal zu einem bestimmten Punkt, und je größer n ist, desto ausgeprägter ist dieser Effekt.

Als neuronales Netzwerk

Das SDM kann entweder als inhaltsadressible Erweiterung einer Klassiker angesehen werden Arbeitsspeicher (RAM) oder als spezielle Art von drei Ebenen Feedforward Neural Network. Die wichtigsten SDM -Änderungen am RAM sind:[10]

  • Das SDM berechnet Hamming -Entfernungen Zwischen der Referenzadresse und jeder Ortadresse. Für jeden Abstand, der weniger oder gleich dem angegebenen Radius ist, wird die entsprechende Position ausgewählt.
  • Der Speicher wird durch Zähler dargestellt (wobei n die Anzahl der Stellen und M die Eingangsdatenlänge anstelle von Einzelbitspeicherelementen ist.
  • Das Schreiben in die Erinnerung anstatt zu überschreiben ist wie folgt:
    • Wenn die I-Bit der Eingabedaten 1 beträgt, werden die entsprechenden Zähler (Zähler in den ausgewählten Stellen (Zeilen) und in den I-TH-Spalten) inkrementiert.
    • Wenn die I-Bit der Eingabedaten 0 beträgt, sind die entsprechenden Zähler abgeschlossen.
  • Das Lesen (oder Rückruf) aus dem Speicher ist ähnlich:
    • Der Inhalt der ausgewählten Positionen wird kalumnweise summiert.
    • Jede Summe wird geschwmet. Wenn die Summe größer oder gleich dem Schwellenwert ist, wird das entsprechende Ausgangsbit auf 1 gesetzt, im gegenüberliegenden Fall wird es gelöscht. Beachten Sie, dass die Schwellenwerte Null sein können, wenn die Trainingseingangsvektoren für orthogonale geschlossen sind.

Neuronmodell

Eine idealisierte Beschreibung von Neuron ist wie folgt: Ein Neuron hat einen Zellkörper mit zwei Arten von Zweigen: Dendriten und ein Axon. Es empfängt Eingangssignale von anderen Neuronen über Dendriten, integriert (Summen) und erzeugt ein eigenes (elektrisches) Ausgangssignal, das über Axon an externe Neuronen gesendet wird. Die elektrischen Kontaktpunkte zwischen Neuronen werden aufgerufen Synapsen.

Wenn ein Neuron ein Signal erzeugt Brennen und nach dem Schießen muss genesen bevor es wieder feuert. Die relative Bedeutung einer Synapse mit dem Brennen von Neuron wird genannt synaptisches Gewicht (oder Eingangskoeffizient). Es gibt zwei Arten von Synapsen: Aufregung das auslösen Neuron zu Feuer und hemmend Das behindert das Feuer. Das Neuron ist entweder exzitatorisch oder hemmend gemäß den Arten von Synapsen seines Axons.[11]

Ein Neuron feuert an, wenn die Summe der Eingänge einen spezifischen überschreiten Schwelle. Je höher der Schwellenwert ist, desto wichtiger ist es, dass exzitatorische Synapsen Eingaben haben, während hemmende dies nicht tun.[12] Ob ein gewonnenes Neuron tatsächlich Brände tatsächlich abhängt, hängt davon ab, ob es einen ausreichenden exzitatorischen Input (jenseits der Schwelle) und nicht zu viel hemmender Input innerhalb eines bestimmten Zeitraums erhalten hat.

Das formale Neuronmodell vereinfacht die Annahmen weiter.[13] Ein n-Input -Neuron wird durch a modelliert Lineare Schwellenwertfunktion folgendermaßen :

Zum Wo n die Anzahl der Eingänge ist, lassen Sie es die Ausgabe zum Zeitpunkt sein t: , und lass sei der i-Th Eingabe zur Zeit t: . Lassen das Gewicht der i-D -Eingang und lassen die Schwelle sein.

Das gewichtete Summe der Eingänge zur Zeit t wird definiert von

Das Neuronausgang zum Zeitpunkt t wird dann als a definiert Boolesche Funktion:

Wo ft= 1 bedeutet, dass das Neuron zum Zeitpunkt feuert t und ft= 0, dass es nicht tut, d. H. Damit das Neuron die gewichtete Summe abfeuern muss, muss die Schwelle erreichen oder überschreiten. Erregende Eingaben erhöhen die Summe und die Hemmeingaben verringern sie.

Neuron als Adress-Decoder

Kanervas Schlüsselarbeit[1] ist, dass bestimmte Neuronen ihre Eingangskoeffizienten und Schwellenwerte über das gesamte Leben eines Organismus befestigen und als Adressdecoder verwendet werden n-tupel der Eingangskoeffizienten (das Muster, auf das Neuronen am leichtesten reagieren) bestimmt die n-Bit -Speicheradresse und der Schwellenwert steuert die Größe des Bereichs ähnlicher Adressmuster, auf den das Neuron reagiert.

Dieser Mechanismus ergänzt sich zu einstellbaren Synapsen oder einstellbaren Gewichten in einem neuronalen Netzwerk (Perzeptron Konvergenzlernen), da dieser feste Zugriffsmechanismus dauerhaft wäre Bezugsrahmen was zulässt auswählen Die Synapsen, in denen die Informationen gespeichert werden und von denen sie unter bestimmten Umständen abgerufen werden. Darüber hinaus würde eine Codierung des gegenwärtigen Umstands als Adresse dienen.

Die Adresse a eines Neurons mit Eingangskoeffizienten w wo ist definiert als eine n-Biteingangsmuster, das die gewichtete Summe maximiert. Das Maximum tritt auf, wenn die inhibitorischen Eingaben Nullen und die exzitatorischen Eingaben sind. Das i-D -Adresse lautet:

(Angenommen, Gewichte sind ungleich Null)

Das Maximale gewichtete Summe ist dann die Summe aller positiven Koeffizienten:

Und die Minimum gewichtete Summe würde einem Punkt entsprechen, der der Neuronadresse a`:

Wenn der Schwellenwert C in Reichweite liegt Die Ausgabe des Neurons beträgt 0 für einige Adressen (Eingangsmuster) und 1 für andere. Wenn der Schwellenwert über S liegt, ist die Ausgabe immer 0, wenn sie unter s liegt, ist die Ausgabe immer 1. durch eine ordnungsgemäße Wahl des Schwellenwerts ein Neuron nur auf nur eine Adresse. Wenn der Schwellenwert s (das Maximum für die gewichtete Summe) ist, reagiert das Neuron nur auf seine eigene Adresse und wirkt wie ein Adressdecoder eines konventionellen Arbeitsspeicher.

Speicherort

SDM ist so konzipiert, dass sie mit Adressmustern fertig werden, die einen enormen Adressraum (Reihenfolge von ). SDM geht davon aus dünn im gesamten Eingaberaum verstreut. Es ist unmöglich, einen separaten physischen Ort zu reservieren, der jeder möglichen Eingabe entspricht. SDM implementiert nur eine begrenzte Anzahl von physischen oder schwer Standorte. Der physische Ort wird als Speicher bezeichnet (oder schwer) Lage.[4]

Jeder harte Ort hat zwei Elemente in Verbindung gebracht:

  • Eine feste harte Adresse, die die N-Bit-Adresse des Standorts ist
  • Ein Inhaltsanteil, der m-bit breit ist und mehrere M-Bit-Datenmuster ansammeln können, die in den Ort geschrieben sind. Der Teil des Inhalts ist nicht festgelegt; Es wird durch Datenmuster geändert, die in den Speicher geschrieben wurden.

In SDM kann ein Wort im Speicher gespeichert werden, indem es an einem kostenlosen Speicherort geschrieben und gleichzeitig den Ort mit dem entsprechenden Adressdecoder bereitgestellt wird. Ein Neuron als Adressdecoder würde einen Speicherort ausgewählt, der auf Ähnlichkeit der Adresse des Standorts zum Abruf -Hinweis basiert. Im Gegensatz zu konventionell Turing -Maschinen SDM nutzt die Ausnutzung Parallele Computing durch die Adressdecoder. Das bloße Zugriff auf den Speicher wird als Computer angesehen, von dem die Menge mit der Speichergröße zunimmt.[1]

Adressmuster

Ein n-Bit-Vektor, der schriftlich und aus dem Gedächtnis gelesen wird. Das Adressmuster ist eine codierte Beschreibung eines Umgebungszustands. (z. B. n = 256.)

Datenmuster

Ein M-Bit-Vektor, der Gegenstand des Schreib- und Lesevorgangs ist. Wie das Adressmuster handelt es sich um eine codierte Beschreibung eines Umgebungszustands. (z. B. M = 256.)

Schreiben

Das Schreiben ist der Betrieb des Speichers eines Datenmusters in den Speicher mit einem bestimmten Adressmuster. Während eines Schreibens besteht die Eingabe zum Speicher aus einem Adressmuster und einem Datenmuster. Das Adressmuster wird zur Auswahl verwendet schwer Speicherorte, deren harte Adressen innerhalb eines bestimmten Grenzwerts vom Adressmuster liegen. Das Datenmuster wird in jeden der ausgewählten Stellen gespeichert.

Lektüre

Das Lesen ist der Betrieb des Abrufen eines Datenmusters aus dem Speicher mit einem bestimmten Adressmuster. Während einer Lektüre wird ein Adressmuster verwendet, um eine bestimmte Anzahl von Anzahl auszuwählen schwer Speicherorte (genau wie während eines Schreibens). Der Inhalt der ausgewählten Stellen wird bitweise summiert und geschwmet, um ein M-Bit-Datenmuster abzuleiten. Dies dient als Ausgabe aus dem Speicher.

Zeigerketten

Alle Elemente sind in einer einzigen Liste (oder Array) von Zeigern an Speicherorte verknüpft und in RAM gespeichert. Jede Adresse in einem Array zeigt auf eine einzelne Zeile im Speicher. Diese Zeile wird dann zurückgegeben, wenn sie anderen Zeilen ähnlich ist. Neuronen werden als Adressdecoder und -Codierer verwendet, ähnlich der Art und Weise, wie Neuronen im Gehirn arbeiten, und geben Elemente aus dem Array zurück, das übereinstimmt oder ähnlich sind.

Kritische Entfernung

Kanervas Gedächtnismodell hat ein Konzept von a kritischer Punkt: Vor diesem Punkt kann ein zuvor gespeicherter Artikel leicht abgerufen werden. Aber über diesen Punkt hinaus kann ein Gegenstand nicht abgerufen werden. Kanerva hat diesen Punkt für einen bestimmten Satz von (festen) Parametern methodisch berechnet. Die entsprechende kritische Entfernung eines spärlichen verteilten Speicher kann ungefähr bewertet werden, um die folgende Gleichung mit der Einschränkung zu minimieren und . Der Beweis kann in, gefunden werden,[14][15]

Wo:

  • : Ist der Abstand zum Ziel;
  • : Ist die Anzahl der Dimensionen;
  • : Ist die normalisierte Normalverteilung mit mittlerer Null und Varianz eins;
  • : Ist die Häufigkeit, mit der das Zielbitstring in Speicher geschrieben wurde;
  • : Ist insgesamt die Gesamtzahl der zufälligen Bitstrings Hartleitungen, die durch einen Lesevorgang aktiviert werden; d.h. die Größe einer Zellanordnung;
  • : Ist die mittlere Anzahl gemeinsamer Hard-Lokationen, die von zwei Bitstrings aktiviert werden Stücke voneinander entfernt. In Kanervas Buch, Tabelle 7.1, p. 63 oder die Gleichungen, die in Anhang B, p an SDM berechnet werden sollen. 125 des gleichen Buches.

Probabilistische Interpretation

Ein assoziatives Gedächtnis System mit spärlichen, verteilten Darstellungen können als neu interpretiert werden als Wichtigkeitsabtaster, a Monte Carlo Annäherungsmethode Bayes'sche Inferenz.[16] Das SDM kann als Monte -Carlo -Näherung an eine mehrdimensionale Annäherung angesehen werden bedingte Wahrscheinlichkeit Integral. Das SDM liefert akzeptable Antworten aus einem Trainingssatz, wenn diese Näherung gültig ist, dh wenn der Trainingssatz ausreichende Daten enthält, um gute Schätzungen der zugrunde liegenden zu liefern gemeinsame Wahrscheinlichkeiten Und es gibt genügend Monte -Carlo -Proben, um eine genaue Schätzung des Integrals zu erhalten.[17]

Biologische Plausibilität

Spärliche Codierung Kann eine allgemeine Strategie von neuronalen Systemen sein, um die Gedächtniskapazität zu erhöhen. Um sich an ihre Umgebungen anzupassen, müssen Tiere lernen, welche Reize mit Belohnungen oder Strafen verbunden sind, und unterscheiden diese verstärkten Reize von ähnlichen, aber irrelevanten. Eine solche Aufgabe erfordert die Implementierung von Stimulusspezifischen assoziative Erinnerungen in dem nur wenige Neuronen aus a Population Reagieren Sie auf einen bestimmten Stimulus und jedes Neuron reagiert auf nur wenige Stimuli aller möglichen Reize.

Theoretische Arbeiten an SDM von Kanerva haben vorgeschlagen, dass eine spärliche Codierung die Kapazität des assoziativen Gedächtnisses durch Reduzierung der Überlappung zwischen Darstellungen erhöht. Experimentell wurden in vielen Systemen, einschließlich Vision, spärliche Darstellungen von sensorischen Informationen beobachtet.[18] Vorsprechen,[19] berühren,[20] und Geruch.[21] Trotz der akkumulierenden Beweise für weit verbreitete spärliche Kodierung und theoretische Argumente für seine Bedeutung hat eine Demonstration, dass eine spärliche Codierung die Stimulusspezifität des assoziativen Gedächtnisses bis vor kurzem fehlte.

Einige Fortschritte wurden 2014 von erzielt Gero MiessenböckLabor am Universität von Oxford Analysieren Drosophila Riechsystem.[22] In Drosophila kodiert spärliche Geruchscodierung durch die Kenyonzellen des Pilzkörper Es wird angenommen, dass es eine große Anzahl genau adressierbarer Standorte für die Speicherung von geruchspezifischen Erinnerungen erzeugt. Lin et al.[23] zeigte, dass die Spärlichkeit durch einen negativen Rückkopplungskreis zwischen Kenyonzellen und den gesteuert wird Gabaerge Anterior gepaarter lateraler (APL) Neuron. Die systematische Aktivierung und Blockade jedes Beins dieser Rückkopplungsschaltung zeigen, dass Kenyonzellen APL aktivieren und APL Kenyonzellen hemmt. Die Störung der Kenyon-Zell-APL-Rückkopplungsschleife verringert die Spärlichkeit der Geruchsreaktionen von Kenyonzellen, erhöht die Inter-Odor-Korrelationen und verhindert, dass Fliegen lernen, ähnliche, aber nicht unähnliche Gerüche zu unterscheiden. Diese Ergebnisse legen nahe, dass die Rückkopplungshemmung die Kenyonzellaktivität unterdrückt, um die spärliche, dekorrelierte Geruchscodierung und damit die Geruchsspezifität von Erinnerungen aufrechtzuerhalten. Eine 2017er Veröffentlichung in Wissenschaft[24] zeigten, dass der Fly -Riechkreis eine verbesserte Version von Binärer implementiert Lokalität sensibler Hashing über spärliche, zufällige Projektionen.

Anwendungen

In Anwendungen des Speichers sind die Wörter Merkmalsmuster. Einige Funktionen werden von einem sensorischen System erzeugt, andere steuern ein Motorsystem. Da ist ein Strommuster (von z. B. 1000 Bit), was der aktuelle Inhalt des Systems ist Fokus. Die Sensoren fassen in den Fokus, die Motoren werden aus dem Fokus getrieben, und auf das Gedächtnis wird durch den Fokus zugegriffen.

Was in der Welt vor sich geht - die "subjektive" Erfahrung des Systems - wird intern durch eine Abfolge von Mustern im Fokus dargestellt. Der Speicher speichert diese Sequenz und kann sie später im Fokus neu erstellen, wenn sie mit einem ähnlichen Muster wie in der Vergangenheit angesprochen wird. Somit lernt die Erinnerung zu vorhersagen Was wird passieren. Große Anwendungen des Speichers wären in Systemen, die sich in Echtzeit mit realen Informationen befassen.

Die Anwendungen umfassen Vision- Objekte in einer Szene erkennen und identifizieren und nachfolgende Szenen antizipieren - Robotik, Signalerkennung und -überprüfungund adaptiv Lernen und Kontrolle. Auf der theoretischen Seite kann uns die Arbeit des Gedächtnisses helfen, das Verständnis zu verstehen Erinnerung und Lernen bei Menschen und Tieren.[4][25]

Die beste Übereinstimmungssuche

SDM kann auf das Problem des Findens der bester Treffer zu einem Testwort in einem Datensatz gespeicherter Wörter.[1][26] oder mit anderen Worten die Suche nach Nachbarn Problem.

Betrachten Sie einen Gedächtnis mit N -Orten, an denen . Lassen Sie jeden Standort die Kapazität für einen haben n-Bitwort (z. B. n = 2100 100-Bit-Wörter) und lassen Sie die Adressdecodierung durch nadressdecoder-Neuronen erfolgen. Stellen Sie die Schwelle jedes Neurons fest x zu seiner maximal gewichteten Summe und verwenden Sie einen gemeinsamen Parameter d So einstellen Sie alle Schwellenwerte beim Zugriff auf den Speicher. Die effektive Schwelle des Neurons x wird dann sein was bedeutet, dass der Ort x ist jedes Mal zugänglich, wenn die Adresse x ist innen d Bits der Adresse, die dem Speicher präsentiert werden (d. H. Die von dem Adressregister gehaltene Adresse). Mit Wir haben einen konventionellen Arbeitsspeicher. Nehmen Sie weiter an, dass jeder Standort eine besondere hat Standort besetzt Bit auf die gleiche Weise wie die regulären Datum -Bits. Das Schreiben eines Wortes an einen Ort legt dies fest Standort besetzt bisschen. Nehmen wir an, dass nur ein belegter Ort gelesen werden kann.

Um die Daten im Speicher einzureichen, beginnen Sie mit der Einstellung und geben einen Befehl aus, um die zu löschen Standort besetzt bisschen. Dieser einzelne Betrieb markiert den gesamten Speicher, der unabhängig von den Werten des Adressregisters nicht besetzt ist. Dann eingestellt und schreiben Sie jedes Wort y des Datensatzes mit y selbst als Adresse. Beachten Sie, dass jeder Schreibvorgang nur einen Ort betrifft: den Ort y. Die Anmeldezeit ist somit proportional zur Anzahl der Wörter im Datensatz.

Finden Sie die beste Übereinstimmung für ein Testwort z, beinhaltet das Platzieren z im Adressregister und die geringste Entfernung finden d für das es einen besetzten Ort gibt. Wir können die Suche durch Einstellen starten und Inkrementierung d nacheinander, bis ein besetzter Standort gefunden wurde. Diese Methode gibt durchschnittliche Suchzeiten, die proportional zur Anzahl der Adressbits oder etwas weniger als sind [1] Weil der nächste besetzte Standort nur knapp unter sein kann Teile von z (mit binäre Suche an d Dies wäre o (log (n)).

Mit 100-Bit-Wörtern 2100 Standorte wären benötigt, d. H. Ein enorm großes Gedächtnis. Jedoch Wenn wir den Speicher konstruieren, während wir die Wörter des Datensatzes speichern Für jedes Wort des Datensatzes benötigen wir nur einen Ort (und einen Adressdecoder). Keiner der nicht besetzten Standorte muss vorhanden sein. Dies repräsentiert den Aspekt von Kargheit in SDM.

Spracherkennung

SDM kann in angewendet werden Rede transkribieren, mit dem Training, das aus "Hören" auf einen großen Korpus von gesprochenen besteht Sprache. Zwei harte Probleme mit der natürlichen Sprache sind, wie man Wortgrenzen erfasst und sich an verschiedene Sprecher anpasst. Der Speicher sollte in der Lage sein, beides zu handhaben. Zunächst speichert es Sequenzen von Mustern als Zeigerketten. Im Training - beim Hören von Sprache - wird es eine probabilistische Struktur mit der höchsten Inzidenz von Verzweigungen an Wortgrenzen aufbauen. Bei der Transkribenrede werden diese Verzweigungspunkte erkannt und neigen dazu, den Strom in Segmente zu unterteilen, die Worten entsprechen. Zweitens ist die Sensibilität des Gedächtnisses gegenüber Ähnlichkeit sein Mechanismus zur Anpassung an verschiedene Sprecher - und die Variationen der Stimme desselben Sprechers.[4]

"Vergessen" realisieren "

Verfallfunktionen
Die exponentielle Zerfallsfunktion
Die negierte Sigmoidfunktion

An der University of Memphis haben Uma Ramamurthy, Sidney K. D'Mello und Stan Franklin eine modifizierte Version des spärlichen verteilten Speichersystems erstellt, das "Realisierung von Vergessen" darstellt. Es verwendet eine Zerfallgleichung, um die Interferenzen in Daten besser zu zeigen. Das spärliche verteilte Speichersystem verteilt jedes Muster in ungefähr einhundertstel der Standorte.[Klarstellung erforderlich] Daher kann Störungen nachteilige Ergebnisse erzielen.[27]

Es werden zwei mögliche Beispiele für den Zerfall aus diesem modifizierten spärlichen verteilten Speicher vorgestellt

Exponentieller Verfall Mechanismus:

Negated-translatierter Sigmoid-Zerfall-Mechanismus:

In der exponentiellen Zerfallsfunktion nähert es sich schneller als Null als x zunimmt und a ist eine Konstante (normalerweise zwischen 3-9) und c ist ein Zähler. Für die negierten-übersetzt SigmoidfunktionDer Zerfall ähnelt der exponentiellen Zerfallsfunktion, wenn a ist größer als 4.[27]

Wenn sich das Diagramm nähert, wird dargestellt, wie der Speicher unter Verwendung von Zerfallsmechanismen vergessen wird.

Genetischer spärlicher verteilter Gedächtnis

Ashraf Anwar, Stan Franklin und Dipankar Dasgupta an der Universität von Memphis; schlug ein Modell für die SDM -Initialisierung unter Verwendung genetischer Algorithmen und genetischer Programmierung vor (1999).

Genetisches Gedächtnis Verwendet genetischer Algorithmus und ein spärliches verteiltes Gedächtnis als pseudo -künstliches neuronales Netzwerk. Es wurde für die Schaffung künstlicher Leben in Betracht gezogen.[28]

Statistische Vorhersage

SDM wurde auf statistische Anwendung angewendet VorhersageDie Aufgabe, extrem große Wahrnehmungsstaatenvektoren mit zukünftigen Ereignissen zu verbinden. Unter Bedingungen der nahezu Überkapazität, bei denen das assoziative Gedächtnisverhalten des Modells zusammenbricht, kann die vom Modell durchgeführte Verarbeitung als statistischer Prädiktor interpretiert werden, und jeder Datenzähler in einem SDM kann als unabhängige Schätzung angesehen werden der bedingten Wahrscheinlichkeit einer binären Funktion f ist gleich dem durch den Speicherort des Zählers definierten Aktivierungssatzes.[29]

Künstliche allgemeine Intelligenz

  • Lida Verwendet einen spärlichen verteilten Speicher, um das Modell zu helfen Erkenntnis in biologischen Systemen. Der spärliche verteilte Speicherplatz Platz erinnert oder erkennt das Objekt, das er in Bezug auf andere Objekte hat. Es wurde von Stan Franklin entwickelt, dem Schöpfer des "realisierenden Vergessens" modifiziertes spärliches verteiltes Speichersystem.[30] Transiente episodische und deklarative Erinnerungen haben Darstellungen in LIDA verteilt (basierend auf einer modifizierten Version von SDM[31]) Es gibt Hinweise darauf, dass dies auch im Nervensystem der Fall ist.[32]
  • Cmatie ist a 'bewusst' Software -Agent, die zur Verwaltung von Seminarankündigungen in der Abteilung Mathematical Sciences unter der Universität von Memphis. Es basiert auf SDM, die durch die Verwendung von erweitert wurde genetische Algorythmen als an assoziatives Gedächtnis.[33]
  • Hierarchische zeitliche Erinnerung Verwendet SDM zum Speichern von spärlichen verteilten Darstellungen der Daten.

(Siehe auch Kognitive Architektur & Künstliche allgemeine Intelligenz Für eine Liste von SDM -bezogenen Projekten)

Verstärkungslernen

SDMs liefern einen linearen, lokalen Funktionsnäherung Schema, das für die Funktionsweise entwickelt wurde, wenn ein sehr großer/hochdimensionaler Eingangsraum (Adressraum) in einen viel kleineren Kartentag abgebildet werden muss physikalischer Speicher. Im Allgemeinen können lokale Architekturen, einschließlich SDMs, dem unterzogen werden Fluch der DimensionalitätWie einige Zielfunktionen im schlimmsten Fall möglicherweise eine exponentielle Anzahl lokaler Einheiten über den gesamten Eingaberaum angenähert werden müssen. Es wird jedoch allgemein angenommen, dass die meisten Entscheidungssysteme brauchen hohe Genauigkeit nur um niedrigdimensional Verteiler des Zustandsraum, oder wichtige Zustand "Autobahnen".[34] Die Arbeit in Ratitch et al.[35] kombinierte das SDM -Speichermodell mit den Ideen von Gedächtnisbasiertes Lernen, der einen Approxator liefert, der seine Struktur und Auflösung dynamisch anpassen kann, um Regionen des Zustandsraums zu lokalisieren, die "interessanter" sind[36] und zuteilt proportional mehr Speicherressourcen, um sie genau zu modellieren.

Objektindizierung in Computer Vision

Dana H. BallardLabor[37] zeigte eine allgemeine Objektindexierungstechnik für Computer Vision das kombiniert die Tugenden von Hauptkomponentenanalyse mit den günstigen passenden Eigenschaften hochdimensionaler Räume, um eine hohe Präzisionserkennung zu erzielen. Der Indexierungsalgorithmus verwendet eine Aktive Sicht Das System in Verbindung mit einer modifizierten Form von SDM und bietet eine Plattform zum Erlernen des Zusammenhangs zwischen dem Erscheinungsbild eines Objekts und seiner Identität.

Erweiterungen

Es wurden viele Erweiterungen und Verbesserungen an SDM vorgeschlagen, z.

  • Ternärer Speicherraum: Dadurch kann der Speicher als transientes episodisches Speicher (TEM) in verwendet werden Kognitive Software -Agenten. TEM ist ein Speicher mit hoher Spezifität und niedriger Aufbewahrung, die für Ereignisse verwendet wird, die Merkmale einer bestimmten Zeit und eines bestimmten Ortes haben.[38][39]
  • Ganzzahl SDM, das modulare arithmetische Ganzzahlvektoren anstelle von binären Vektoren verwendet. Diese Erweiterung verbessert die Darstellungsfähigkeiten des Speichers und ist gegenüber der Normalisierung robuster. Es kann auch erweitert werden, um das Vergessen und die zuverlässige Sequenzspeicherung zu unterstützen.[8]
  • Verwenden von Wortvektoren mit größerer Größe als Adressvektoren: Diese Erweiterung bewahrt viele der wünschenswerten Eigenschaften des ursprünglichen SDM: automatische Assoziabilität, Inhaltsadressibblinie, verteilte Speicher und Robustheit über verrückte Eingaben. Darüber hinaus fügt es eine neue Funktionalität hinzu und ermöglicht eine effiziente automatisch-assoziative Speicherung von Vektorensequenzen sowie anderer Datenstrukturen wie Bäume.[40]
  • Konstruktion von SDM von Spike -Neuronen: Trotz der biologischen Ähnlichkeit von SDM haben die meisten Arbeiten, die zur Demonstration seiner bisherigen Fähigkeiten durchgeführt wurden Neuronen in dem Gehirn. Jüngste Arbeiten von Steve FurberLabor am Universität von Manchester[41][42][43] Vorgeschlagene Anpassungen an SDM, z. Durch Einbeziehung von N-of-M-Rangcodes[44][45] wie Populationen von Neuronen Kann Informationen codieren - die es ermöglichen, eine SDM -Variante aus biologisch plausiblen Komponenten zu erstellen. Diese Arbeit wurde in einbezogen Spinnaker (Architektur des neuronalen Netzwerks) welches als der verwendet wird Neuromorphes Computer Plattform für die Menschliches Gehirnprojekt.[46]
  • Nicht randomische Verteilung von Standorten:[47][48] Obwohl die Speicherorte ursprünglich zufällig im Binär-N-Adressraum verteilt sind, hängt die endgültige Verteilung der Positionen von den dargestellten Eingangsmustern ab und kann nicht zufällig sein, was eine bessere Flexibilität und eine bessere Flexibilität ermöglicht und dies zulässt. Verallgemeinerung. Das Datenmuster wird zunächst an Stellen gespeichert, die der Eingabedresse am nächsten liegen. Das Signal (d. H. Datenmuster) verbreitet sich dann im gesamten Speicher und ein kleiner Prozentsatz der Signalstärke (z. B. 5%) geht an jedem nachfolgenden Ort verloren. Wenn Sie das Signal auf diese Weise verteilen, wird die Notwendigkeit eines Select -Lese-/Schreibradius erforderlich, eines der problematischen Merkmale des ursprünglichen SDM. Alle in einem Schreibvorgang ausgewählten Standorte erhalten jetzt keine Kopie des ursprünglichen binären Musters mit gleicher Stärke. Stattdessen erhalten sie eine Kopie des Musters, das mit einem realen Wert von 1,0-> 0,05 gewichtet wurde, um in real geschätzten Zählern zu speichern (anstelle von Binärzählern in Kanervas SDM). Dies belohnt die nächsten Orte mit einer größeren Signalstärke und nutzt die natürliche Architektur des SDM, um die Signalstärke abzuschwächen. In ähnlicher Weise wird beim Speicher aus dem Speicher die Ausgabe von den nächsten Stellen ein größeres Gewicht als an weiter entfernten Stellen angegeben. Die neue Signalmethode ermöglicht die Gesamtsignalstärke, die von einem Standort als Maß für die Eignung eines Standorts verwendet werden kann, und ist für die variierenden Eingabe flexibel (da der Verlustfaktor für Eingangsmuster unterschiedlicher Längen nicht geändert werden muss).
  • SDMSCUE (spärlich verteiltes Speicher für kleine Hinweise): Ashraf Anwar & Stan Franklin an der Universität von Memphis führte eine Variante von SDM vor, die in der Lage ist, kleine Hinweise zu bearbeiten; nämlich SDMSCUE im Jahr 2002. Die Schlüsselidee besteht darin, mehrere Lesevorgänge/Schreibvorgänge und Raumprojektionen zu verwenden, um einen nacheinander längeren Hinweis zu erreichen.[49]

Verwandte Patente

  • Methode und Geräte für ein spärliches verteiltes Speichersystem US 5113507 a,, Universitäten Raumforschungsvereinigung, 1992[50]
  • Methode und Gerät zum Speichern und Rückruf von Informationen zur Implementierung eines Kanerva -Speichersystems US 5829009 A,, Texas Instrumente, 1998[51]
  • Digitaler Speicher, Furber, Stephen. US 7512572 B2, 2009[52]

Implementierung

Verwandte Modelle

Verweise

  1. ^ a b c d e f g Kanerva, Pentti (1988). Spärmer verteilter Speicher. Die MIT -Presse. ISBN 978-0-262-11132-4.
  2. ^ Rissman, Jesse; Wagner, Anthony D. (2012). "Verteilte Darstellungen im Gedächtnis: Erkenntnisse aus der funktionellen Gehirnbildgebung". Annual Review of Psychology. 63: 101–28. doi:10.1146/Annurev-psych-120710-100344. PMC 4533899. PMID 21943171.
  3. ^ a b c d Grebeníček, František. "Spärliche Verteilungsspeicher -Musterdatenanalyse. URL: http://www.fit.vutbr.cz/~grebenic/publikace/mosis2000.pdf"
  4. ^ a b c d e Flynn, Michael J., Pentti Kanerva und Neil Bhadkamkar. "Sparse Distributed Memory Prototype: Prinzipien und Betrieb." (1989).
  5. ^ C. George Boeree (2002). "Allgemeine Psychologie". Shippensburg University.
  6. ^ a b Pentti Kanerva (1993). "Spärlicher verteilter Speicher und verwandte Modelle". Pennsylvania State University: 50–76. Citeseerx 10.1.1.2.8403. {{}}: Journal zitieren erfordert |journal= (Hilfe)
  7. ^ M. J. Flynn; P. Kanerva & N. Bhadkamkar (Dezember 1989). "Spärlicher verteilter Speicher: Prinzipien und Betrieb" (PDF). Universität in Stanford. Abgerufen 1. November 2011.[Permanent Dead Link]
  8. ^ a b Snaider, Javier und Stan Franklin. "Ganzzahl spärlich verteilter Speicher.
  9. ^ Mendes, Mateus Daniel Almeida. "Intelligente Roboternavigation mit einem spärlichen verteilten Speicher." Doktorarbeit, (2010). URL: https://eg.sib.uc.pt/handle/10316/17781
  10. ^ GRENBENıCEK, František. Neuronale Netze als assoziative Erinnerungen. Diss. Brno University of Technology, 2001. URL: http://www.vutium.vutbr.cz/tituly/pdf/ukazka/80-214-1914-8.pdf
  11. ^ Kandel, Eric R., James H. Schwartz und Thomas M. Jessell, Hrsg. Prinzipien der neuronalen Wissenschaft. Vol. 4. New York: McGraw-Hill, 2000.
  12. ^ Eccles, John G. "Im Zauber der Synapse." Die Neurowissenschaften: Entdeckungswege, I. Birkhäuser Boston, 1992. 159-179.
  13. ^ McCulloch, Warren S.; Pitts, Walter (1943). "Ein logischer Berechnung der Ideen, die in nervöser Aktivität immanent sind". Bulletin der mathematischen Biophysik. 5 (4): 115–133. doi:10.1007/bf02478259.
  14. ^ Brogliato, Marcelo Salhab (2012). Verständnis der kritischen Entfernung im spärlichen verteilten Speicher (These). HDL:10438/13095.
  15. ^ Brogliato, Marcelo Salhab; Chada, Daniel de Magalhães; Linhares, Alexandre (2014). "Spärlicher verteilter Speicher: Verständnis der Geschwindigkeit und Robustheit des Expertengedächtnisses". Grenzen der menschlichen Neurowissenschaft. 8 (222): 222. doi:10.3389/fnhum.2014.00222. PMC 4009432. PMID 24808842.
  16. ^ Abbott, Joshua T., Jessica B. Hamrick und Thomas L. Griffiths. "Appellieren Bayes'sche Inferenz mit einem spärlichen verteilten Speichersystem. "Proceedings der 35. Jahreskonferenz der Cognitive Science Society.
  17. ^ Anderson (1989). "Eine bedingte Wahrscheinlichkeitsinterpretation von Kanervas spärlichem verteiltem Speicher". Internationale gemeinsame Konferenz über neuronale Netze. Vol. 1. S. 415–417. doi:10.1109/ijcnn.1989.118597. S2CID 13935339.
  18. ^ Vinje, wir; Gallant, JL (2000). "Spärliche Kodierung und Dekorrelation im primären visuellen Kortex während des natürlichen Sehens" (PDF). Wissenschaft. 287 (5456): 1273–1276. Bibcode:2000SCI ... 287.1273V. Citeseerx 10.1.1.456.2467. doi:10.1126/science.287.5456.1273. PMID 10678835. S2CID 13307465. Archiviert von das Original (PDF) Am 2017-09-11.
  19. ^ Hromádka, t; DeWeese, MR; Zador, AM (2008). "Spärliche Darstellung von Klängen im nicht ästhetisierten auditorischen Kortex". PLOS Biol. 6 (1): e16. doi:10.1371/journal.pbio.0060016. PMC 2214813. PMID 18232737.
  20. ^ Häkeln, s; Poulet, JFA; Kremer, y; Petersen, CCH (2011). "Synaptische Mechanismen, die der spärlichen Kodierung der aktiven Berührung zugrunde liegen". Neuron. 69 (6): 1160–1175. doi:10.1016/j.neuron.2011.02.022. PMID 21435560. S2CID 18528092.
  21. ^ Ito, ich; Ong, rcy; Raman, b; Stopfer, M (2008). "Spärliche Geruchsrepräsentation und olfaktorisches Lernen". Nat Neurosci. 11 (10): 1177–1184. doi:10.1038/nn.2192. PMC 3124899. PMID 18794840.
  22. ^ Ein spärlicher Gedächtnis ist ein präziser Speicher. Oxford Science Blog. 28. Februar 2014. http://www.ox.ac.uk/news/science-blog/sparse-memory-precise-memory
  23. ^ Lin, Andrew C.; et al. (2014). "Spärliche, dekorrelierte Geruchskodierung im Pilzkörper verbessert die erlernte Geruchsunterscheidung". Nature Neurowissenschaften. 17 (4): 559–568. doi:10.1038/nn.3660. PMC 4000970. PMID 24561998.
  24. ^ Dasgupta, Sanjoy; Stevens, Charles F.; Navlakha, Saket (2017). "Ein neuronaler Algorithmus für ein grundlegendes Computerproblem". Wissenschaft. 358 (6364): 793–796. Bibcode:2017Sci ... 358..793d. doi:10.1126/science.aam9868. PMID 29123069.
  25. ^ Denning, Peter J. Sparse Distributed Memory. Forschungsinstitut für fortgeschrittene Informatik [NASA Ames Research Center], 1989.
  26. ^ Minsky, Marvin und Papert Seymour. "Wahrnehmung." (1969). "Zeit gegen Speicher für das beste Matching - ein offenes Problem" p. 222–225
  27. ^ a b Uma Ramamurthy; Sidney K. D'Mello; Stan Franklin. "Das Vergessen in einem modifizierten, spärlich verteilten Speichersystem". Informatikabteilung und das Institut für intelligente Systeme. Die Universität von Memphis. S. 1992–1997. Archiviert von das Original (PDF) auf 2006. Abgerufen 1. November 2011.
  28. ^ Rocha LM, Hordijk W (2005). "Materialpräsentationen: vom genetischen Code bis zur Entwicklung von zellulären Automaten". Künstliches Leben. 11 (1–2): 189–214. Citeseerx 10.1.1.115.6605. doi:10.1162/1064546053278964. PMID 15811227. S2CID 5742197.
  29. ^ Rogers, David. "Statistische Vorhersage mit Kanervas spärlichem verteiltem Gedächtnis." Fortschritte in der Verarbeitung von neuronalen Informationsverarbeitungssystemen. 1989.
  30. ^ Rao, R. P. N.; Fuentes, O. (1998). "Hierarchisches Lernen von Navigationsverhalten in einem autonomen Roboter unter Verwendung eines prädiktiven spärlichen verteilten Gedächtnisses" (PDF). Maschinelles Lernen. 31: 87–113. doi:10.1023/a: 1007492624519. S2CID 8305178.
  31. ^ Franklin, Stan et al. "Die Rolle des Bewusstseins im Gedächtnis. "Brains, Minds and Media 1.1 (2005): 38.
  32. ^ Shastri, Lokendra (2002). "Episodische Erinnerung und Cortico -Hippocampal -Wechselwirkungen" (PDF). Trends in den kognitiven Wissenschaften. 6 (4): 162–168. doi:10.1016/s1364-6613 (02) 01868-5. PMID 11912039. S2CID 15022802.
  33. ^ Anwar, Ashraf; Franklin, Stan (2003). "Spärlicher verteilter Speicher für" bewusste "Softwareagenten". Forschung für kognitive Systeme. 4 (4): 339–354. doi:10.1016/s1389-0417 (03) 00015-9. S2CID 13380583.
  34. ^ Ratitch, Bohdana, Swaminathan Mahadevan und Doina Precup. "Spärliche verteilte Erinnerungen beim Verstärkungslernen: Fallstudien." Proc. des Workshops zum Lernen und Planen in Markov-Prozessen und Herausforderungen. 2004.
  35. ^ Ratitch, Bohdana und Doina Precup. "Spärliche verteilte Erinnerungen für online wertebasierte Verstärkungslernen. "Maschinelles Lernen: ECML 2004. Springer Berlin Heidelberg, 2004. 347-358.
  36. ^ Bouchard-Côté, Alexandre. "Erkennung von Gedächtnisstrukturen. "(2004).
  37. ^ Rao, Rajesh PN und Dana H. Ballard. "Objektindexierung unter Verwendung eines ikonischen spärlichen verteilten Speichers. "Computer Vision, 1995. Proceedings., Fünfte internationale Konferenz über. IEEE, 1995.
  38. ^ D'Mello, Sidney K., Ramamurthy, U. & Franklin, S. 2005. Codierung und Abrufeffizienz episodischer Daten in einem modifizierten spärlichen verteilten Speichersystem. In Proceedings der 27. Jahrestagung der Cognitive Science Society. Stresa, kursiv
  39. ^ Ramamaurthy, U., Sidney K. D'Mello und Stan Franklin. "Der modifizierte spärliche verteilte Speicher als transientes episodisches Speicher für kognitive Software -Agenten[Dead Link]. "Systeme, Man and Cybernetics, 2004 IEEE International Conference on. Vol. 6. IEEE, 2004.
  40. ^ Snaider, Javier; Franklin, Stan (2012). "Erweiterter spärlicher verteilter Speicher und Sequenzspeicher". Kognitive Berechnung. 4 (2): 172–180. doi:10.1007/s12559-012-9125-8. S2CID 14319722.
  41. ^ Furber, Steve B.; et al. (2004). "Spärlicher verteilter Speicher mit N-of-M-Codes". Neuronale Netze. 17 (10): 1437–1451. doi:10.1016/j.neunet.2004.07.003. PMID 15541946.
  42. ^ Scharf, Thomas: "Anwendung des spärlichen verteilten Speicher auf das umgekehrte Pendelproblem". Diss. University of Manchester, 2009. URL: http://studentnet.cs.manchester.ac.uk/resources/library/thesis_abstracts/msc09/fulltext/sharpthomas.pdf
  43. ^ Bose, Freude. Engineering eine Sequenzmaschine durch Spike-Neuronen, die Rangreihencodes verwenden[Dead Link]. Diss. Universität Manchester, 2007.
  44. ^ Simon Thorpe und Jacques Gautrais. Rangbestellcodierung. In der Computerneurowissenschaft: Trends in der Forschung, Seiten 113–118. Plenum Press, 1998.
  45. ^ Furber, Stephen B.; et al. (2007). "Spärlicher verteilter Speicher unter Verwendung von neuronalen Codes von Rangordnungen". IEEE -Transaktionen auf neuronale Netze. 18 (3): 648–659. Citeseerx 10.1.1.686.6196. doi:10.1109/tnn.2006.890804. PMID 17526333. S2CID 14256161.
  46. ^ Calimera, a; Macii, e; Poncino, M (2013). "Das menschliche Gehirnprojekt und das neuromorphe Computer". Funktionelle Neurologie. 28 (3): 191–6. PMC 3812737. PMID 24139655.
  47. ^ Hely, Tim; Willshaw, David J.; Hayes, Gillian M. (1997). "Ein neuer Ansatz zu Kanervas spärlichem verteiltem Speicher". IEEE -Transaktionen auf neuronale Netze. 8 (3): 791–794. doi:10.1109/72.572115. PMID 18255679. S2CID 18628649.
  48. ^ Caraig, Lou Marvin. "Ein neuer Trainingsalgorithmus für Kanervas spärlich verteilter Speicher. "Arxiv Preprint Arxiv: 1207.5774 (2012).
  49. ^ Anwar, Ashraf; Franklin, Stan (2005-01-01). Ng, Michael K.; Doncescu, Andrei; Yang, Laurence T.; Leng, Tau (Hrsg.). Ein spärlicher verteilter Speicher, der in der Lage ist, kleine Hinweise zu bearbeiten, SDMSCUE. IFIP - Die Internationale Föderation für Informationsverarbeitung. Springer uns. S. 23–38. doi:10.1007/0-387-24049-7_2. ISBN 978-0-387-24048-0.
  50. ^ Methode und Apparat für ein spärliches verteiltes Speichersystem US 5113507 a, von Louis A. Jaeckel, Universitäten Space Research Association, 1992, URL: http://www.google.com/patents/us5113507
  51. ^ Methode und Gerät zum Speichern und Rückruf von Informationen zur Implementierung eines Kanerva -Speichersystems US 5829009 A, von Gary A. Frazier, Texas Instruments Incorporated, 1998, URL: https://www.google.com/patents/us5829009
  52. ^ Furber, Stephen B. "Digitaler Speicher." US -Patent Nr. 7,512.572. 31. März 2009.URL: https://www.google.com/patents/us7512572
  53. ^ Emruli, Blerim; Sandin, Fredrik; Delsing, Jerker (2015). "Vektorraumarchitektur für die aufkommende Interoperabilität von Systemen durch Lernen aus Demonstration". Biologisch inspirierte kognitive Architekturen. 11: 53–64. doi:10.1016/j.bica.2014.11.015.
  54. ^ Emruli, Blerim; Sandin, Fredrik (2014). "Analoges Mapping mit einem spärlichen verteilten Speicher: Ein einfaches Modell, das lernt, aus Beispielen zu verallgemeinern". Kognitive Berechnung. 6 (1): 74–88. doi:10.1007/s12559-013-9206-3. S2CID 12139021.
  55. ^ Berchtold, Martin. "Verarbeitungssensordaten mit dem Common Sense Toolkit (CSTK)." *(2005).
  56. ^ Der Geist wandert von B. Hayes, 2018. URL: http://bit-player.org/2018/the-mind-wanders
  57. ^ a b Brogliato, Marcelo S.; Chada, Daniel M.; Linhares, Alexandre (2014). "Spärlicher verteilter Speicher: Verständnis der Geschwindigkeit und Robustheit des Expertengedächtnisses". Grenzen der menschlichen Neurowissenschaft. 8: 222. doi:10.3389/fnhum.2014.00222. PMC 4009432. PMID 24808842.
  58. ^ Surkan, Alvin J. (1992). "WSDM: Gewichteter, spärlicher verteilter Speicherprototyp, der in APL ausgedrückt wird". ACM Sigapl APL Quote Quad. 23: 235–242. doi:10.1145/144052.144142.
  59. ^ Turk, Andreas und Günther Görz. "Kanervas spärlicher verteilter Speicher: Eine objektorientierte Implementierung auf der Verbindungsmaschine." Ijcai. 1995.
  60. ^ Silva; Tadeu Pinheiro, Marcus; Pádua Braga, Antônio; Soares lacerda, Wilian (2004). "Rekonfigurierbarer Co-Prozessor für Kanervas spärlich verteiltes Speicher" (PDF). Mikroprozessoren und Mikrosysteme. 28 (3): 127–134. doi:10.1016/j.micpro.2004.01.003.
  61. ^ Brown, Robert L. (Juni 1987). "Zwei Demonstranten und ein Simulator für einen spärlichen verteilten Speicher" (PDF). NASA Technical Reports Archiv.
  62. ^ Muja, Marius. "Skalierbare Methoden der nächsten Nachbarn für hochdimensionale Daten. "(2013).
  63. ^ Hassoun, Mohamad H. Assoziative neuronale Erinnerungen. Oxford University Press, Inc., 1993.
  64. ^ Kanerva, Pentti. "Binärer Spritzer-Kodieren von geordneten K-Tupeln." Künstliche neuronale Netze-ICANN 96. Springer Berlin Heidelberg, 1996. 869-873.
  65. ^ Kohonen, Teuvo. "Korrelationsmatrix Erinnerungen. "Computers, IEEE-Transaktionen auf 100,4 (1972): 353-359.
  66. ^ Ankit Kumar, Ozan Irsoy, Jonathan Su, James Bradbury, Robert English, Brian Pierce, Peter Ondruka, Ishaan Gulrajani, Richard Socher. "Fragen Sie mich alles: Dynamische Speichernetzwerke für die Verarbeitung natürlicher Sprache. "Arxiv Preprint Arxiv: 1506.07285 (2015).
  67. ^ Platte, Tony A. "Holographische reduzierte Darstellung: Verteilte Darstellung für kognitive Strukturen." (2003).
  68. ^ Kanerva, Pentti. "Computing mit 10.000-Bit-Wörtern. "Proc. 52. jährliche Allerton -Konferenz über Kommunikation, Kontrolle und Computer. 2014.
  69. ^ Weston, Jason, Sumit Chopra und Antoine Bordes. "Speichernetzwerke." Arxiv Preprint Arxiv:1410.3916 (2014).
  70. ^ Vinyals, Oriol, Meire Fortunato und Navdeep Jaitly. "Zeigernetzwerke." Arxiv Preprint Arxiv:1506.03134 (2015).
  71. ^ Kurach, Karol, Andrychowicz, Marcin und Sutskever, Ilya. "Neuronale Zufallszugriffsmaschinen. "Arxiv Preprint Arxiv: 1511.06392 (2015).
  72. ^ Joshi, Aditya, Johan Halseth und Pentti Kanerva. "Spracherkennung mit zufälliger Indexierung." Arxiv Preprint Arxiv: 1412.7026 (2014). https://arxiv.org/abs/1412.7026
  73. ^ Pollack, Jordan B (1990). "Rekursiv verteilte Darstellungen". Künstliche Intelligenz. 46 (1): 77–105. doi:10.1016/0004-3702 (90) 90005-k.
  74. ^ De Sousa Webber, Francisco (2015). "Semantische Faltungstheorie und ihre Anwendung im semantischen Fingerabdruck". Arxiv:1511.08855 [cs.ai].
  75. ^ Salakhutdinov, Ruslan und Geoffrey Hinton. "Semantisches Hashing. "RBM 500.3 (2007): 500.
  76. ^ Eliasmitit, Chris, et al. "Ein großes Modell des funktionierenden Gehirns. "Science 338.6111 (2012): 1202-1205.
  77. ^ Hawkins, Jeff; George, Dileep; Niemasik, Jamie (2009). "Sequenzgedächtnis für Vorhersage, Inferenz und Verhalten". Philosophische Transaktionen der Royal Society B: Biologische Wissenschaften. 364 (1521): 1203–1209. doi:10.1098/rstb.2008.0322. PMC 2666719. PMID 19528001.
  78. ^ Lee, Honglak, et al. "Effiziente spärliche Codierungsalgorithmen. "Fortschritte in neuronalen Informationsverarbeitungssystemen. 2006.
  79. ^ Graves, Alex, Greg Wayne und Ivo Danihelka. "Neuronale Turing -Maschinen." Arxiv Preprint Arxiv:1410.5401 (2014).
  80. ^ Vincent, Pascal; et al. (2010). "Gestapelte Denoising AutoCoders: Nützliche Darstellungen in einem tiefen Netzwerk mit einem lokalen Denoising -Kriterium lernen" (PDF). Das Journal of Machine Learning Research. 11: 3371–3408.
  81. ^ Rachkovskij, Dmitri A.; Kussul, Ernst M. (2001). "Bindung und Normalisierung von binären spärlichen verteilten Darstellungen durch kontextabhängiges Ausdünnen" (PDF). Neuronale Berechnung. 13 (2): 411–452. doi:10.1162/089976601300014592. S2CID 585366.