Künstliche neuronale Netze erfüllen bereits viele anspruchsvolle Aufgaben wie das Erkennen bestimmter Gesichter auf Videos, das Schachspielen und die Transkription gesprochener Sprache. Im Gegensatz zum Menschen können sie jedoch nur eine Tätigkeit auf einmal erlernen und benötigen dafür viel Zeit und große Datenmengen. Das liegt unter anderem daran, dass sie kein Gedächtnis haben. Aus diesem Grund statten Neuroinformatiker neue Algorithmen mit einer Gedächtniskomponente aus. Dadurch wird verhindert, dass die Netze das bereits Gelernte überschreiben.
Menschen lernen aber viel schneller und benötigen dabei deutlich weniger Beispiele, was unter anderem am Gedächtnis der Menschen liegt. Der Mensch verfügt über verschiedene Gedächtnisformen, die ihm das Lernen ermöglichen, sodass Forscher inzwischen versuchen, diese künstlich nachzubilden.
Wenn also Informatiker Deep-Learning-Verfahren anwenden, um Computer Gegenstände, Zeichen oder Gesichter auf Fotos identifizieren zu lassen, dann ordnen sie künstliche neuronale Netze zu Ebenen an, die zunehmend komplexere Merkmale verarbeiten sollen. Der Algorithmus wird zunächst an einem großen Datensatz trainiert, wobei er etwa lernen soll, Hunde auf Bildern zu erkennen. In diesem Prozess erhält er tausende Fotos von Hunden und anderen Dingen, jeweils immer mit der Zusatzinformation, was abgebildet ist. Ist das Training beendet, bekommt das Programm ein Testbild als Input, etwa ein Tierfoto, wonach es Schicht für Schicht verschiedene Eigenschaften analysiert, und zwar auf unteren Ebenen einfache Formen, auf höheren Ebenen komplexere Strukturen und in der obersten Schicht abstrakte Konzepte. Der Output verrät schließlich, ob es sich bei dem Tier um einen Hund handelt.