Forschende aus Wien, Zürich und Tokio haben beobachtet, dass Babys bereits kurz nach der Geburt komplexe Abfolgen von Tönen erlernen können, die (wie in der Sprache) Regeln folgen. Damit ist der lange ausstehende Beweis gelungen, dass die Fähigkeit, Abhängigkeiten zwischen nicht-benachbarten akustischen Signalen wahrzunehmen, angeboren ist.
Die Forschungsgruppe hat die Hirnaktivität von Neugeborenen und sechs Monate alten Babys beim Hören komplexer Tonfolgen beobachtet. Wenige Tage alten Babys wurden Tonsequenzen vorgespielt, in denen jeweils ein erster Ton mit einem nicht-benachbarten dritten Ton verknüpft war. Nach nur sechs Minuten Beschallung mit zwei verschiedenen Arten von Tonsequenzen wurden Tonsequenzen mit demselben Muster, jedoch in einer anderen Tonhöhe vorgespielt. Die neuen Sequenzen waren korrekt oder enthielten einen Fehler in der Abfolge. Die Gehirnsignale, die mittels Nahinfrarotspektroskopie gemessen wurden, verrieten, dass das neugeborene Gehirn zwischen korrekten und inkorrekten Sequenzen unterscheiden konnte.
Dabei spielte der frontale Kortex eine entscheidende Rolle. Wie stark dieser auf fehlerhafte Sequenzen reagierte, hing jedoch mit der Aktivierung eines vorwiegend linkshemisphärischen Netzwerks zusammen, das auch für die Sprachverarbeitung wichtig ist. Babys im Alter von sechs Monaten zeigten eine Aktivierung in genau diesem Netzwerk, wenn sie zwischen korrekten und inkorrekten Sequenzen unterschieden. Die Forschenden schliessen daraus, dass komplexe Tonfolgen von Anfang an sprachrelevante Netzwerke aktivieren, die sich im Verlauf der ersten sechs Lebensmonate stabilisieren und spezifischer reagieren.
Die Ergebnisse zeigen, dass unser Gehirn von Anfang an auf komplexe Muster wie Sprache reagiert. Die Vernetzung von Hirnarealen während des Lernprozesses bei Neugeborenen deutet darauf hin, dass frühe Lernerfahrungen entscheidend für die Bildung von Netzwerken sein könnten, die später die Verarbeitung komplexer akustischer Muster unterstützen. Die Erkenntnisse zeigen auch, dass nicht-sprachliche akustische Signale sprach-relevante Netzwerke im Gehirn ansprechen, was Möglichkeiten für die frühe Sprachförderung eröffnet – z. B. durch Musik. Die Ergebnisse wurden in der Fachzeitschrift PLOS Biology veröffentlicht.