Das Neurophone   I


Die Entwicklung des Neurophone
Von Dr. Patrick Flanagan

Die Entwicklung des ersten Neurophone

   Das erste Neurophone baute ich 1958, als ich 14 Jahre alt war. Mit 15 Jahren hielt ich einen Vortrag vor dem Houstoner Amateurfunker-Club, bei dem ich das Neurophone vorführte. Am nächsten Tag setzte sich ein Reporter der ‚Houston Post’ mit mir in Verbindung. Er erzählte mir, dass er eine durch eine Gehirnhautentzündung gehörlos gewordene Verwandte habe und fragte mich, ob wir das Neurophone bei seiner Verwandten ausprobieren könnten. Der Versuch war ein Erfolg. Am Tag darauf erschien ein Artikel über das Neurophone als mögliche Hörhilfe für Gehörlose und ging über den Ticker an die internationalen Nachrichtendienste.

   Im Verlauf der nächsten zwei Jahre wuchs das öffentliche Interesse. 1961 kamen Reporter des ‚LIFE-Magazine’ zu uns nach Hause und lebten mehr als eine Woche bei uns. Sie machten Tausende von Fotos und folgten mir von morgens bis abends. Der Artikel erschien in der Ausgabe vom 14. September 1962. Danach wurde ich zu 'Ich habe ein Geheimnis' eingeladen, einer Talk-Show von Gary Moore. Die Show wurde von den NBC Studios in New York ausgestrahlt. Während der Show platzierte ich die Elektroden des Neurophone am Rücken von Bess Meyerson, während das Rateteam herausfinden musste, was ich da mit ihr machte. Sie konnte ein Gedicht ‚hören’, das über die Elektroden des Neurophone übertragen wurde. Das vorher aufgenommene Gedicht wurde von Mrs. Meyerson wahrgenommen, das Rateteam konnte nicht erraten, was ich mit ihr machte. Als Reaktion auf den Artikel im LIFE-Magazin und meinen Auftritt in der Gary Moore Show erhielten wir über eine Millionen Zuschriften zu meiner Erfindung.

   Die amerikanischen Patentbehörden begannen, Schwierigkeiten zu machen. Der Prüfer sagte, das Gerät könne unmöglich funktionieren und verweigerte die Erteilung des Patents bis 1967. Erst nachdem mein Anwalt und ich mit einem funktionstüchtigen Neurophone beim Patentamt erschienen, wurde das Patent erteilt. Das war ein ungewöhnlicher Schachzug von mir, denn Erfinder bringen ihre Erfindungen selten zum Prüfer. Dieser sagte, er würde die Patenterteilung bestätigen, wenn es uns gelingen würde, einen tauben Angestellten des Patentamts mit dem Gerät hören zu lassen. Der Angestellte war wirklich in der Lage zu hören und das Patent wurde erteilt.

   Ein Forschungsunternehmen, die Huyck Corporation, begann sich für die Erfindung zu interessieren. Huyck gehörte einem sehr großen und mächtigen holländischen Papierkonzern mit Niederlassungen in der ganzen Welt. Sie begannen das Gerät zu untersuchen und waren sehr positiv beeindruckt, aber wegen der Probleme mit dem Patentamt wurde das Projekt wieder fallen gelassen.

   Bei Huyck traf ich zwei Menschen, die mir noch viele Jahre eng verbunden blieben: Dr. Henri Marie Coanda, der ‚Vater der Flüssigkeitsdynamik’ und Harry G. Stine, einen Wissenschaftler und Autor. Harry Stine schrieb ein Buch ‚The Silicone Gods’ (beim Bantam Verlag erschienen) über das Potential des Neurophone als Gehirn-Computer-Schnittstelle.

   Die nächste Stufe der Neurophone-Forschung begann, als ich zur Forschung an die Tufts Universität ging. Wir waren zusammen mit einem Bostoner Unternehmen an einem Projekt beteiligt, das eine Sprache für die Kommunikation zwischen Mensch und Delphin entwickeln sollte. Unsere Verträge kamen von der ‚U.S. Naval Ordnance Test Station’ (der amerikanischen Versuchsstation für Meeresverteidigung) in China Lake, Kalifornien. Der Projektleiter war mein Freund und Geschäftspartner Dr. Dwight Wayne Batteau, Professor für Physik und Maschinenbau an der Harvard- und Tufts- Universität.          

Holographischer Klang

   Während des Delphin-Projekts entwickelten wir die Basis für viele mögliche neue Technologien. Es gelang uns, den Codierungsmechanismus zu ermitteln, den das menschliche Gehirn benutzt, um intelligente Sprachsignale zu decodieren; und wir waren in der Lage, den Mechanismus zu entschlüsseln, mit dem das Gehirn Klangquellen im dreidimensionalen Raum lokalisiert. Diese Entdeckungen führten zur Entwicklung eines dreidimensionalen holographischen Klangsystems, das Klänge an jeder beliebigen Position im Raum so platzieren konnte, wie der Zuhörer sie wahrnehmen konnte. Mit anderen Worten, der Klang konnte in einer Weise gesendet werden, dass der Klang scheinbar aus dem Nichts heraus aufzutauchen schien!

   Wir entwickelten auch einen Mensch-Delphin-Sprachübersetzer. Der Übersetzer war in der Lage, menschliche Sprache zu entschlüsseln, so dass komplexe Delphin-Pfiffe daraus erzeugt wurden. Wenn Delphine pfiffen, produzierte der Übersetzer menschliche Sprache. Daraus entwickelten wir ein Kommunikationssystem zwischen uns und den beiden Delphinen, mit denen wir damals arbeiteten. Die Delphine lebten in der Lagune einer kleinen Insel nahe von Oahu, Hawaii. Wir hatten Büros im ‚Sea Life Park’ in Boston und pendelten zwischen diesen beiden Orten hin und her, um unsere zahlreichen Apparate zu testen.

   Wir nahmen Delphine und Wale auf offener See auf Band auf und konnten sehr genau die Positionen zahlreicher Meeres-Säuger mit den von uns entdeckten Konzepten identifizieren. Unser System verwendete dasselbe Prinzip wie das menschliche Gehirn, wenn es Klangquellen lokalisiert.

   Ein Mensch kann Klangquellen im Raum wegen der Art und Weise lokalisieren, wie sein Außenohr ankommende Signale behandelt. Sie können das selbst ausprobieren, indem Sie Ihre Augen schließen, während ein Freund einen Schlüsselbund um Ihren Kopf herum klimpern lässt. Selbst mit geschlossenen Augen können Sie die Position des Schlüsselbundes sehr genau ausmachen.

   Wenn Sie die Form Ihrer Ohrmuschel (der sichtbare Teil des äußeren Ohres, der Teil den wir sehen können - er sammelt den Schall und leitet Schallwellen in die inneren Bereiche des Ohrs weiter) mit Ihren Händen durch Dehnen verändern, reduziert oder verliert sich Ihre Fähigkeit, Klangquellen zu lokalisieren. Dieser so genannte ‚Cocktailparty-Effekt’ ist die Fähigkeit, bestimmte Stimmen auf einer lauten Party heraushören zu können. Dies ist möglich, da das Gehirn die Fähigkeit besitzt, Phasenunterschiede zu erkennen und daraufhin seine Aufmerksamkeit auf bestimmte Bereiche im dreidimensionalen Raum lenken kann. Deshalb können wir nicht nur sagen, wer gerade spricht, sondern wir können auch die Position des Sprechenden feststellen. Ein beliebter Trick von Geheimdiensten ist es, vertrauliche Gespräche in so genannten ‚hard rooms’ zu führen, holzvertäfelten Räumen mit Holzfußböden. Eine ‚Wanze’, ein Abhörgerät fängt alle Echos auf und verzerrt dadurch die Stimmen. Beinahe alle Konsulate haben solche ‚hard rooms’ für vertrauliche Gespräche. Wenn man in einem solchen Raum ein Mikrophon mit der Nachbildung eines Außenohres darauf verwendet, wird man wieder in der Lage sein, Stimmen zu unterscheiden und die Echos auszublenden - genau wie wir es auch auf einer Party machen.

   Um Wale und Delphine unter Wasser lokalisieren zu können, benutzten wir Metall-Ohren von ca. 45 cm Durchmesser, die an Wassermikrophone angebracht worden waren. Wenn diese Ohren unter Wasser installiert wurden, konnten wir die genaue Position von Unterwasserklängen im dreidimensionalen Raum ausmachen, wenn wir den Klängen mit Kopfhörern lauschten. Wir benutzten dieses System, um die genaue Position von Walen und Delphinen auszumachen. Klang breitet sich unter Wasser fünfmal schneller aus, so dass die künstlichen Ohren größer sein mussten, um die gleiche Zeitverhältniscodierung zu erhalten wie an der Luft. Wir machten auch große Kunststoffohren, die in Vietnam getestet wurden. Diese Ohren hatten dieselben Proportionen wie normale Ohren, waren aber viel größer. Sie ermöglichten es uns, weit entfernte Geräusche mit einer hohen Genauigkeit zu hören und ihre Ursprungsposition im Dschungel zu ermitteln. Es scheint, als ob wir uns an Ohren beinahe jeder Größe anpassen könnten. Der Grund, warum wir das können, liegt darin, dass Klangerkennung auf einem Zeitverhältniscode basiert, den unser Gehirn in das übersetzt, was wir dann ‚hören’.

   Wir waren auch in der Lage, den Prozess umzukehren. Wir konnten eine beliebige Klangaufnahme nehmen und sie so aufbereiten, als käme sie von jedem beliebigen Punkt im dreidimensionalen Raum, auf den wir sie projizieren wollten. Mit diesem System konnten wir die Aufnahme eines Orchesters so auffächern, als käme die Musik aus vielen Richtungen eines Raumes wie bei einem Live-Konzert.

   Wir entwickelten ein Spezial-Neurophone, das es uns ermöglichte, Delphin-Signale bis zu 250.000 Hertz hinauf zu 'hören', was weit über dem liegt, was Menschen normalerweise wahrnehmen können. Indem wir das Gerät als Teil des Mensch-Delphin-Kommunikators benutzten, gelang es uns, die Komplexität der Delphin-Sprache besser wahrzunehmen. Das menschliche Ohr ist auf ca. 16.000 Hertz begrenzt (Vibrationen, Impulse oder Zyklen pro Sekunde), während Delphine Geräusche bis zu 250.000 Hz erzeugen und hören können. Unser Spezial-Neurophone ermöglichte es uns, das volle Spektrum von Delphingeräuschen zu hören.

   Als ein Ergebnis der Entdeckung des Codierungssystems, das vom Gehirn benutzt wird, um Geräusche räumlich orten und auch Sprache erkennen zu können, waren wir in der Lage, ein digitales Neurophone zu entwickeln.

   Als unsere Patentanmeldung für das digitale Neurophone beim Patentamt eingereicht wurde, legte das DIA (Defense Intelligence Agency, einer der militärischen Geheimdienste der USA) einen Geheimhaltungsbefehl darauf. Ich durfte fünf Jahre lang nicht mehr an dem Gerät weiter arbeiten oder mit jemandem darüber sprechen. Das war unglaublich entmutigend. Das erste Patent zu bekommen, dauerte zwölf Jahre und jetzt, nach all unserer Arbeit, mussten wir unsere Arbeit aus Gründen der nationalen Sicherheit unter Verschluss halten.

Schnell-Lernen - ein neuer Klang

   Das digitale Neurophone wandelt Klangwellen in ein digitales Signal um, das mit den Zeitverhältniscodes übereinstimmt, die vom menschlichen Gehirn verstanden werden. Diese Zeitsignale werden nicht nur bei der Spracherkennung verwendet, sondern auch bei der Lokalisierung von Klängen im dreidimensionalen Raum - wie bereits vorher im 'Schlüsselbund- Beispiel’ erwähnt wurde.

   Das digitale Neurophone ist die Version, die wir schließlich produzierten und [ca. 1970] als ‚Mark XI’ und ‚Thinkman Modell 50’ verkauften. Diese Neurophone waren besonders als Schnell-Lernmaschinen geeignet. Wenn wir Lernkassetten über die Geräte abspielten, wurden die Informationen besonders schnell in das Langzeitgedächtnis des Gehirns aufgenommen.

Die frühen Entwürfe

   Das erste Neurophone wurde konstruiert, indem zwei Brillo-Pads (Reinigungspads aus Stahlwolle) an isolierte Kupferdrähte angeschlossen wurden. Brillo-Pads sind Scheuerschwämmchen aus Kupfer und werden gewöhnlich zum Putzen von Töpfen und Pfannen verwendet. Sie haben einen Durchmesser von ca. fünf Zentimetern. Die Brillo-Pads wurden in Plastiktüten gesteckt, die zur Isolierung dienten.

   Die Drähte von den Reinigungspads wurden mit einem Gegentakt-Tonausgangsüberträger verbunden, der an einen HiFi-Verstärker angeschlossen war. Die Ausgangsleistung des Klangumwandlers betrug ungefähr 1.500 Volt von Signalspitze zu Signalspitze. Wenn die isolierten Reinigungspads an den Schläfen in der Nähe der Augen angelegt wurden und der Verstärker Musik oder Sprache übertrug, konnte man die Klänge im Kopf 'hören'. Die empfangene Klangqualität war sehr schlecht, stark verzerrt und sehr schwach.

   Ich beobachtete, dass während bestimmter Signalspitzen des Audiosteuersignals der Klang im Kopf sehr klar und sehr laut war. Indem ich das Signal während des Hörens auf einem Oszilloskop beobachtete, konnte ich feststellen, dass das Signal am Lautesten und Klarsten empfangen werden konnte, wenn der Verstärker übersteuert wurde und Rechtecksignale erzeugt wurden. Gleichzeitig klingelte bzw. oszillierte der Klangumwandler mit einer gedämpften Wellenform im Frequenzbereich von 40-50 kHz (1 kHz = 1.000 Hertz).

   Das nächste Neurophone bestand aus einem einstellbaren Schwingungserzeuger auf Röhrenbasis, der amplitudenmoduliert war. Dieses Ausgangssignal wurde dann in einen Hochfrequenz-Klangumwandler eingespeist, der pauschal im Frequenzbereich von 20-100 kHz arbeitete. Die Elektroden wurden am Kopf angebracht und der Oszillator so eingestellt, dass eine maximale Resonanz erreicht werden konnte, wobei der menschliche Körper als Teil des Schwingungskreises eingesetzt wurde.

   Spätere Modelle hatten einen Rückkoppelungsmechanismus, der automatisch die optimale Frequenz für optimale Resonanz einstellte. Wir haben herausgefunden, dass die dielektrische Konstante der menschlichen Haut höchst variabel ist. Um die bestmögliche Energieübertragung zu gewährleisten, musste die Einheit zur Resonanz zurückkehren, um sich der ‚dynamischen dielektrischen Reaktion’ des Körpers des Anwenders anzupassen.

   Die amplitudenmodulierte 2.000-Volt Trägerwelle (von Signalspitze zu Signalspitze) wurde dann über ca. fünf Zentimeter große Elektrodenscheiben auf den Körper übertragen, die durch Mylar- (Polyester-) Filme von verschiedener Dicke isoliert waren. In Wirklichkeit ist das Neurophone ein Skalarwellengerät, weil die Asynchronsignale der Elektroden sich mit den nichtlinearen Vielschichtigkeiten der dielektrischen Haut vermischen. Die Signale von jeder Kondensatoren-Elektrode sind um 180 Grad asynchron. Jedes Signal wird in die höchst komplexe ’Dielektrizität’ des menschlichen Körpers eingegeben, wo es dann zu Phasenaufhebungen kommt. Das Ergebnis dieser Interaktionen ist ein skalarer Vektor. Diese Tatsache war zu der Zeit, als ich das Gerät erfand, noch nicht bekannt. Dieses Wissen kam erst später, als wir lernten, dass das menschliche Nervensystem teilweise für Skalarsignale sensibel ist.

   Das hochfrequente, amplitudenmodulierte Neurophone hat hervorragende Klangeigenschaften. Das empfangene Signal konnte ganz eindeutig als aus der Mitte des Kopfes kommend wahrgenommen werden. Wir fanden relativ früh heraus, dass einige durch Nervenschädigung vollständig Gehörlose mit dem Neurophone hören konnten. Aus irgendeinem Grund jedoch hören nicht alle Gehörlosen sofort mit ihm.

   Wir waren auch in der Lage, visuelle Phänomene zu erzeugen, wenn die Elektroden am Hinterkopf über dem okzipitalen Bereich des Gehirns angebracht wurden. Die Möglichkeiten der neurophonischen visuellen Stimulation legen nahe, dass wir eines Tages in der Lage sein könnten, das Gehirn wie einen Computer- oder Fernsehbildschirm zu benutzen.

Wie funktioniert das Ganze?

   Als das Neurophone ursprünglich entwickelt wurde, nahmen Neurophysiologen an, dass das Gehirn fest verdrahtet sei und dass die verschiedenen Kranialnerven mit jedem sensorischen System fest verdrahtet seien. Der achte Kranialnerv ist das Nervenbündel, das vom Innenohr zum Gehirn führt. Wenn unsere sensorischen Organe fest verdrahtet wären, sollten wir theoretisch nur mit den Ohren hören können. Jetzt ist das Konzept des holographischen Gehirns entwickelt worden. Die Theorie des holographischen Gehirns geht davon aus, dass das Gehirn ein holographisches Codierungssystem benutzt, so dass das gesamte Gehirn in der Lage ist, wie ein facettenreicher Sinnes-Codierungs-Computer zu funktionieren.
Das bedeutet, dass sensorische Eindrücke wie Hören so codiert sein könnten, dass jeder Teil des Gehirns die eintreffenden Signale gemäß eines speziellen Typs der Codierung erkennen könnte. Theoretisch sollten wir in der Lage sein, über mehrere Kanäle zu sehen und zu hören, nicht nur über unsere Augen und Ohren.

   Der Schlüssel zum Neurophone ist die Stimulierung der Hautnerven mit einem digital codierten Signal, das denselben Zeitverhältniscode überträgt, der von jedem Nerv unseres Körpers als Klang identifiziert wird.

   Im Allgemeinen basieren die kommerziellen digitalen Spracherkennungskanäle auf einer Technologie, die ‚Frequenzfolgereaktion’ genannt wird. Während Sprache von einem solchen Kanal erkannt werden mag, basiert eine effektivere und natürlichere Sprachkodierung auf Zeitverhältnissen. Wenn die Phasen der Frequenzfolgereaktion nicht exakt sind, funktionieren sie nicht. Informationen (Klänge) werden durch Phasen-Information übertragen. Der Frequenzgehalt der Stimme gibt unserer Stimme eine bestimmte Qualität, aber Frequenz enthält keine Information. Die meisten Versuche zu computergestützter Spracherkennung und Spracherzeugung sind nur teilweise erfolgreich. Bis eine digitale Zeitverhältniscodierung benutzt wird, werden unsere Computer niemals fähig sein, wirklich zu uns zu sprechen.

   Der Computer, den wir für den Mensch-Delphin-Übersetzer verwendeten, benutzte ausschließlich eine Zeitverhältnisanalyse. Durch das Erkennen und Verwenden von Zeitverhältniscodierung konnten wir klare Sprachdaten durch extrem enge Frequenzbänder übermitteln. Für ein Gerät entwickelten wir einen Funksender, der nur eine Bandbreite von 300 Hz benutzte und trotzdem eine kristallklare Übertragung ermöglichte. Da das Verhältnis von Signal zu Rauschen von der Bandbreite abhängt, waren wir in der Lage, Sprache klar und deutlich über Tausende Kilometer hinweg zu übertragen - und das mit nur wenigen Milliwatt Leistung.

   Verbesserte Signalprozessoren sind die Basis für eine neue Serie von Neurophone-Geräten, die gerade entwickelt wurde und nun auf den Markt gekommen ist. Diese neuen Neurophone benutzen modernste digitale Klangbearbeitung, um  Klanginformation mit wesentlich größerer Klarheit zu übertragen1.

Elektronische Telepathie

   Das Neurophone ist eine elektronische Telepathiemaschine. Verschiedene Tests haben bewiesen, dass es den achten Kranialnerv umgeht, den Hörnerv, und Klang direkt zum Gehirn überträgt. Das bedeutet, dass das Neurophone die Wahrnehmung über einen siebten oder zusätzlichen Sinn anregt.

   Alle Hörhilfen stimulieren kleine Knochen im Mittelohr. Manchmal, wenn das Trommelfell geschädigt ist, werden die Knochen des Innenohrs durch einen Vibrator stimuliert, der hinter dem Ohr an der Schädelbasis platziert wird. Eine Knochenleitung [des Schalls] funktioniert sogar über die Zähne. Damit eine Knochenleitung stattfinden kann, müssen zuerst die Cochlea (Ohrschnecke) oder das Innenohr, das mit dem achten Kranialnerv verbunden ist, funktionieren. Menschen, die nervlich bedingt taub sind können mit Knochenleitung nicht hören, weil die Nerven des Innenohrs nicht funktionstüchtig sind.

   Zahlreiche an zentraler Taubheit leidende Menschen, deren Innenohr vollständig chirurgisch entfernt wurde, waren in der Lage, mit dem Neurophone zu hören.

   Wenn die Elektroden auf den geschlossenen Augen oder auf dem Gesicht angelegt werden, kann der Klang so klar und deutlich 'gehört' werden, als würde er aus der Mitte des Gehirns kommen. Wenn die Elektroden auf dem Gesicht angelegt werden, wird der Klang über den Trigeminusnerv wahrgenommen.

   Dass das Neurophone über den Trigeminus- oder Facialisnerv arbeitet, wissen wir deshalb, weil wir nicht länger über das Gesicht hören können, wenn der Facialis durch eine Betäubungsspritze ausgeschaltet wurde.

   In diesen Fällen [einer anästhetischen Behandlung der Gesichtsnerven] entsteht eine feine Linie, wo die Gesichtshaut taub ist. Werden die Elektroden auf dem sich taub anfühlenden Bereich der Gesichtshaut gelegt, können wir nichts hören. Sobald die Elektroden jedoch ein ganz klein wenig zu einem Hautbereich verschoben werden, der nicht betäubt wurde, ist die Klangwahrnehmung mit dem Neurophone wieder hergestellt und die Person kann ‚hören’.

   Dies beweist, dass die Klangübertragung über Flanagan Neurophone über die Haut und nicht über Knochenleitung erfolgt.

   Es gab ein früheres Experiment, das an der Tufts Universität durchgeführt und von Dr. Dwight Wayne Batteau entwickelt wurde, einem meiner Partner beim U.S. Navy Delphin-Kommunikationsprojekt. Dieser Test war bekannt als der 'Schwebungs-Frequenz-Test'. Es ist allgemein bekannt, dass zwei geringfügig unterschiedliche Frequenzen eine so genannte 'Schwebungsnote' erzeugen, wenn sie interferieren. Wenn z.B. ein Klangsignal mit 300 Hz und eines mit 330 Hz gleichzeitig in ein Ohr eingespielt werden, wird eine Schwebungsnote mit der Frequenz von 30 Hz wahrgenommen. Dies ist eine mechanische Summierung der Klänge in der Knochenstruktur des Innenohrs. Es gibt eine andere Schwebung, Klänge treffen als Schwebung im Corpus Callosum in der Mitte des Gehirns zusammen. Diese ‚stereophone Schwebung’ oder ‚binaural beat’ wird vom Monroe Institut und anderen dazu benutzt, veränderte Bewusstseinszustände durch ‚Entraining’2 zu simulieren. Dadurch wird das Gehirn in hohe Alpha- oder sogar Theta- Bewusstseinszustände versetzt. Diese Bewusstseinszustände werden assoziiert mit Kreativität, luzidem Träumen und anderen Bewusstseinszuständen, die im Wachzustand auf andere Weise schwierig erreicht werden können.

   Das Neurophone ist ein wirkungsvolles Gerät für Gehirn-Entrainment. Wenn wir Alpha- oder Thetasignale direkt durch das Neurophone einspielen, können wir unser Gehirn in jeden gewünschten Zustand versetzen.

   Batteaus Theorie war Folgende: Wenn wir die Neurophone Elektroden in einer Weise platzieren könnten, dass die Klänge so wahrgenommen würden, als kämen sie von einer einzigen Seite des Kopfes, und wenn wir so ein 300 Hertz-Signal durch das Neurophone einspielen würden – und wenn wir zusätzlich ein 330 Hertz-Signal über einen gewöhnlichen Kopfhörer übertragen würden, müssten wir eine Schwebungsnote erhalten, wenn sich die Signale in den Knochen des Innenohrs addieren. Als wir den Test durchführten, waren wir in der Lage, zwei getrennte Töne ohne Schwebung wahrzunehmen. Dieser Test zeigte noch einmal, dass neurophonisches Hören nicht über die Knochen weitergeleitet wird.

   Als wir ein Stereo-Neurophone verwendeten, waren wir in der Lage, eine Schwebungsnote zu erzeugen, die einem ‚binaural beat’ ähnlich ist, aber diese Schwebung erfolgt innerhalb des Nervensystems und ist nicht das Resultat einer Knochenleitung.

   Das Neurophone ist ein ‚Eingangstor’ in veränderte Bewusstseinszustände. Die vielleicht wirksamste Anwendung des Flanagan Neurophone liegt im Bereich der direkten Kommunikation mit den Gehirnzentren, bei der alle 'Filter' oder internen Blockaden umgangen werden, die üblicherweise die Kommunikation mit unserem eigenen Gehirn begrenzen. Wenn wir das Geheimnis der direkten Klangkommunikation mit dem Gehirn entschlüsseln können, können wir auch das Geheimnis visueller Kommunikation lösen. Die Haut besitzt Rezeptoren, die Vibrationen, Licht, Temperatur, Druck und Reibung erfassen können. Alles was wir zu tun haben ist, die Haut mit den richtigen Signalen zu stimulieren.

   Wir setzen die Neurophone-Forschung fort. Kürzlich haben wir andere Formen der neurophonischen Übertragung entwickelt. Wir haben auch die neurophonische Übertragung umgekehrt und herausgefunden, dass wir Skalarwellen erfassen können, die von lebenden Systemen erzeugt werden. Die Meßmethode ähnelt sehr derjenigen von Dr. Hiroshi Motoyama in Japan. Dr. Motoyama verwendete Widerstandselektroden, die denen, die wir beim Neurophone verwenden sehr ähnlich sind, um Energien verschiedener Kraftzentren des Körpers zu messen - bekannt als Chakren.

 

1Seit Verfassen dieses Artikels hat Patrick Flanagan das Neurophone noch einmal weiterentwickelt. Seit Ende 2002 ist das ‚Neurophone DSP’ auch in Europa erhältlich, das erste voll digitale Neurophone.

2Entraining lässt sich in etwa mit ‚Resonanz’ oder ‚Rhythmus-Synchronisation’ übersetzen, d.h. Gehirnwellen werden dazu veranlasst, sich an ein Signal anzukoppeln und ihm zu folgen.
 

- Seitenanfang -