Stottern und auditorisches Feedback

Aktuelle Forschungsergebnisse, Medikamente, medizinische Aspekte
Benutzeravatar
Torsten
nicht mehr wegzudenken
nicht mehr wegzudenken
Beiträge: 1011
Registriert: 9. Februar 2011 17:47
Ort: Salzwedel
BVSS-Mitglied: ja

Re: Stottern und auditorisches Feedback

Beitrag von Torsten » 9. Mai 2011 18:37

Hallo,

über Karens "stotternden" Zebrafinken habe ich im Thread "Stottern ohne Zuhörer" (Beitrag vom 7. 5.) etwas geschrieben. Deshalb kommt jetzt

Sprechtheorie, Teil 6:

Bevor ich jedoch, wie angekündigt, zu den "Versprechern" komme, möchte ich noch auf etwas anderes hinweisen: In Willem Levelts Modell der Sprachverarbeitung wird das Verstehen von Wörtern als „phonologische Decodierung“ bezeichnet (darüber hinaus wird eine „grammatische Decodierung“ beim Satz-Verstehen angenommen). Doch für das Verstehen von Wörtern und Sätzen ist keine Decodierung erforderlich, weil bei der Bildung der Wörter und Sätze nichts codiert wird.

Die Ansicht, beim Sprechen werde etwas codiert, entspringt der Vorstellung, es würden nonverbale Gedanken in Sprache verwandelt: Die Sprache wäre dann sozusagen der Code, in dem die Gedanken mitgeteilt werden können. Doch erstens findet, wie gesagt, keine Verwandlung von Gedanken in Sprache statt, denn verbales Denken ist Sprechen, und zweitens bedeutet „Codierung“ bekanntlich etwas anderes – nämlich die Verschlüsselung der öffentlichen Sprache in einer Geheimsprache, oder allgemeiner die Darstellung einer Sprache durch eine andere Sprache. Auf das Gehirn bezogen hieße das: die Übertragung einer internen cerebralen „Maschinensprache“, in der das Gehirn mit sich selbst kommuniziert, in die öffentliche Sprache.

Manche Forscher, besonders im Umkreis der Kognitionswissenschaft und der Künstliche-Intelligenz-Forschung, glauben, dass Gehirne so ähnlich wie Computer funktionieren und dass sie deshalb eine interne Symbolsprache, eine „lingua mentis“ besitzen müssten, entsprechend den binären Symbolen „Eins“ und „Null“ der Elektronenrechner. Ein führender Vertreter dieser Denkrichtung ist der Philosoph Jerry Fodor, der diese hypothetische Sprache „Mentalesisch“ nennt. Doch in der letzten Zeit setzt sich immer mehr die Erkenntnis durch, dass Gehirne auf einer ganz anderen Grundlage, nach einem anderen Funktionsprinzip arbeiten als Computer und deshalb ohne interne Symbolsprache auskommen. Dieser Unterschied zwischen Gehirnen und Computern spielt auch bei den folgenden Überlegungen zu "Versprechern", speziell zu Fehlern bei der Wortartikulation, eine Rolle:

Es scheint ja ein Widerspruch zu bestehen zwischen meiner Behauptung, das Sprechen der Worte erfolge weitgehend automatisch nach eingeübten Programmen, und der Tatsache, dass es dabei zu Fehlern, z. B. zu Lautverwechslungen kommen kann. Man muss sich jedoch klar machen, dass automatische Vorgänge im Gehirn etwas anderes sind als automatische Vorgänge in einem Computer. Computer verarbeiten Informationen digital, auf der Basis von Ja/Nein-Entscheidungen. Ein Computer wird niemals zwei ähnliche Zeichen, beispielsweise A und Ä, miteinander verwechseln. Entweder, er kann zwischen A und Ä unterscheiden – dann wird er es immer tun – oder er kann es nicht – dann wird er es niemals tun, denn es ist in seinem Programm nicht vorgesehen.

Gehirne dagegen arbeiten analog, d. h. nach dem Prinzip der Ähnlichkeit. Deshalb geschieht es nicht selten, dass wir Ähnliches verwechseln – Unähnliches dagegen verwechseln wir kaum. Weil unsere Gehirne nach dem Ähnlichkeitsprinzip arbeiten, ist es uns aber auch möglich, Ähnliches (z. B. Amseln, Habichte und Störche) spontan als zu einer Kathegorie (Vögel) zugehörig zu erkennen und so Begriffe zu bilden – also die Bilder und Namen aller uns bekannten Vögel mit dem Wort „Vogel“ zu verknüpfen. Die analoge, auf dem Prinzip der Ähnlichkeit beruhende Informationsverarbeitung im Gehirn ist deshalb die Voraussetzung für die Entstehung natürlicher Sprachen.

Erfahrungsgemäß verspricht man sich häufiger, wenn man unkonzentriert oder abgelenkt ist. Für das Sprechen ist offenbar ein gewisses Maß an Aufmerksamkeit nötig. Das spricht jedoch nicht gegen die These, dass das Sprechen der Wörter automatisch erfolgt – es zeigt nur, dass zum Funktionieren dieser Automatik eine bestimmte Art von sensorischer Kontrolle gehört. Das ist auch bei anderen automatischen Handlungsabläufen der Fall. Beim Radfahren z. B. müssen Gleichgewicht, Richtung und Abstand (z. B. zum Straßenrand) ständig kontrolliert und ggf. korrigiert werden. Doch diese Kontrolle, also die Verarbeitung des sensorischen Feedbacks, und teilweise sogar die Korrekturen erfolgen weitgehend automatisch, sind also Teil der eingeübten, automatisierten Gesamthandlung. Auch beim Sprechen handelt es sich um einen Automatismus, der auf einer zweifachen sensorischen Rückkopplung beruht: auf der Propriozeption des Sprechapparates für das Bilden der Laute und, wie ich später zeigen werde, auf der auditorischen Rückkopplung.

Im nächsten Teil dieser Reihe wird es um das Bilden und Verstehen von Sätzen gehen.

Gruß, Torsten
www.stottertheorie.de

Benutzeravatar
Jaspis
nicht mehr wegzudenken
nicht mehr wegzudenken
Beiträge: 945
Registriert: 27. August 2007 22:04
PLZ: 65xxx
Ort: Hessen
BVSS-Mitglied: ja

Re: Stottern und auditorisches Feedback

Beitrag von Jaspis » 9. Mai 2011 23:08

Torsten hat geschrieben:Doch für das Verstehen von Wörtern und Sätzen ist keine Decodierung erforderlich, weil bei der Bildung der Wörter und Sätze nichts codiert wird.
Hm, vielleicht meint Levelt das auch anders? Denn was ist Sprache sonst, wenn nicht eine Codierung von Gedanken und Gefühlen? Warum gibt es sonst soviele verschiedenen Sprachen mit teils sehr unterschiedlichen Strukturen? So unterschiedlich können die Menschen nicht denken in China und in Finnland, z.B. ... Codierung/Verschlüsselung bedeutet doch nicht nur Geheimcode, sondern generell eine Umsetzung zwischen verschiedenen Ebenen. Und die Gedanken- und Gefühlsebenen und die Sprache sind sehr verschiedene Ebenen. Oder?

Benutzeravatar
Torsten
nicht mehr wegzudenken
nicht mehr wegzudenken
Beiträge: 1011
Registriert: 9. Februar 2011 17:47
Ort: Salzwedel
BVSS-Mitglied: ja

Re: Stottern und auditorisches Feedback

Beitrag von Torsten » 10. Mai 2011 21:50

Hallo Karen,

Man muss zwischen sprachlichen und nichtsprachlichen Bewusstseinsinhalten unterscheiden. Wenn ich von "Denken" rede, meine ich verbales, sprachliches Denken - also Denken in Wörtern und Sätzen. Und Wörter und Sätze können wir nun einmal nur in der Sprache (oder den Sprachen) denken, die wir gelernt haben.

Ich glaube schon, dass Menschen, die in verschiedenen Sprachen denken, auch tatsächlich sehr verschieden denken. Jeder Belletristik-Übersetzer sagt Dir, dass vieles unübersetzbar ist (z. B. gibt es das Wort und den Begriff "Heimat" angeblich nur im Deutschen).

Man darf "Codierung" nicht damit verwechseln, dass wir die Sprache benutzen, um etwas zu beschreiben. Das tun wir selbstverständlich: Wir beschreiben mit Hilfe der Sprache Erlebnisse, Dinge, subjektive Eindrücke, objektive Sachverhalte, Gefühle, Wünsche, Erwartungen, Befürchtungen, Hoffnungen, Erinnerungen.

Gruß, Torsten
www.stottertheorie.de

paul.dest
nicht mehr wegzudenken
nicht mehr wegzudenken
Beiträge: 1163
Registriert: 3. Mai 2010 22:36
Kontaktdaten:

Re: Stottern und auditorisches Feedback

Beitrag von paul.dest » 10. Mai 2011 22:02

Torsten hat geschrieben:z. B. gibt es das Wort und den Begriff "Heimat" angeblich nur im Deutschen
:) Ganz sicher nicht!
http://stottern-verstehen.de

Benutzeravatar
Torsten
nicht mehr wegzudenken
nicht mehr wegzudenken
Beiträge: 1011
Registriert: 9. Februar 2011 17:47
Ort: Salzwedel
BVSS-Mitglied: ja

Re: Stottern und auditorisches Feedback

Beitrag von Torsten » 10. Mai 2011 22:13

[Gelöscht, da nicht zum Thema gehörig.]
Zuletzt geändert von Torsten am 17. Dezember 2016 17:23, insgesamt 1-mal geändert.
Grund: Kürzung
www.stottertheorie.de

Benutzeravatar
Torsten
nicht mehr wegzudenken
nicht mehr wegzudenken
Beiträge: 1011
Registriert: 9. Februar 2011 17:47
Ort: Salzwedel
BVSS-Mitglied: ja

Re: Stottern und auditorisches Feedback

Beitrag von Torsten » 13. Mai 2011 11:22

Sprechtheorie, Teil 7:

Wenn es wahr ist, dass, wie oben behauptet, spontanes Sprechen ein motorischer Vorgang ist, dem kein verbales Denken vorausgeht, dann stellt sich die Frage: Wie kann dem spontanen Sprechen eines Satzes dann ein Verstehen von dessen Inhalt vorausgehen? Mit anderen Worten: Wie können wir vorher wissen und beurteilen, was wir gleich sagen werden? Die Antwort ist: Wir wissen es nicht vorher und können es nicht vorher beurteilen. Dem spontanen Sprechen eines Satzes geht kein Verstehen dieses Satzes voraus. Das Verstehen des Inhaltes eines gesprochenen Satzes, soweit dieser Inhalt über die unmittelbaren Wortbedeutungen hinausgeht, erfolgt erst nachträglich durch das Hören des Satzes und durch die Verarbeitung dieses auditorischen Feedbacks. Diese möglicherweise befremdliche These will ich zunächst logisch begründen:

Der automatischen Erzeugung gesprochener Sätze kann kein Verstehen dieser Sätze vorausgehen, weil erstens der Inhalt eines Satzes nicht allein aus der Bedeutung der ihn bildenden Wörter resultiert, sondern auch aus den Relationen der Wörter zueinander und zur Satzstruktur insgesamt. Der Satz muss also formuliert sein, damit er einen Inhalt hat, der verstanden werden kann. Zweitens gehört es zum Verstehen eines selbst gesprochenen Satzes, dass man beurteilen kann, ob er inhaltlich wahr oder falsch ist. Das ist gleichfalls nur möglich, wenn es sich bereits um einen formulierten Satz handelt, der eine Aussage enthält – der also mindestens aus Subjekt und Prädikat besteht. Auch grammatisch kann ein Satz (oder auch ein Satzglied) nicht vor seiner Formulierung als richtig oder falsch beurteilt werden

Formuliert wird der Satz jedoch durch das Sprechen, gleichgültig, ob es sich um lautes Sprechen oder um stilles, inneres Sprechen, also Denken, handelt. So ungewohnt es klingt: Wir verstehen und beurteilen auch unsere Gedanken erst, nach dem sie gedacht sind. Wir merken das dann, wenn uns ein Gedanke spontan in den Sinn kommt und wir ihn anschließend bewerten – als „Unsinn“ oder als „gute Idee“.

Und was für gedachte Sätze gilt, gilt auch für laut gesprochene Sätze: Erst, nach dem sie formuliert – also in diesem Fall: laut ausgesprochen – sind, können wir beurteilen, ob die Grammatik korrekt ist und ob ein Satz inhaltlich das ausdrückt, was wir mitteilen wollen. Falls nötig, können wir uns korrigieren. Das Recht zur Selbstkorrektur spontaner Rede wird jedem Sprecher eingeräumt, bevor man ihn für seine Aussagen verantwortlich macht. Das ist ein Indiz dafür, dass uns im Grunde klar ist, dass dem spontanen Sprechen zwar ein Etwas-Bestimmtes-sagen-Wollen, aber keine Planung von Sätzen im Sinne einer geistigen Vorformulierung und Vorbeurteilung vorausgeht.

Gruß Torsten
www.stottertheorie.de

Benutzeravatar
Torsten
nicht mehr wegzudenken
nicht mehr wegzudenken
Beiträge: 1011
Registriert: 9. Februar 2011 17:47
Ort: Salzwedel
BVSS-Mitglied: ja

Re: Stottern und auditorisches Feedback

Beitrag von Torsten » 14. Mai 2011 23:00

Hallo,
an dieser Stelle unterbreche ich die Serie zur Sprechtheorie, um etwas einzufügen: Ich möchte ausführlicher auf eine Frage eingehen, um die es bereits im Eingangsbeitrag zu diesem Thread ging und auch im Thread "Stottern ohne Zuhörer" , Seite 2 (ab Paul Dests Beitrag vom 25. 4.):

Die meisten Fachleute waren und sind der Ansicht, das Hören auf die eigene Sprache bzw. die Kontrolle des Sprechvorgangs durch das auditorische Feedback führe zur Verstärkung des Stotterns, die Ablenkung vom Hören bzw. die Kontrolle durch die Propriozeption des Sprechapparates dagegen zur Verminderung des Stotterns. Diese Ansicht ist deshalb so verbreitet, weil zahlreiche Befunde bei oberflächlicher Betrachtung in diese Richtung weisen. In der folgenden Liste sind solche Befunde, in zwei Gruppen geordnet, aufgefürt:

Gruppe A: Stottern tritt nicht auf
  • bei erworbener Taubheit,
  • bei Stotterern unter künstlicher Vertäubung durch extremen Lärm oder Rauschen („Maskierung“),
  • bei Wernicke-Aphasie infolge einer Läsion des auditorischen Kortex.
Gruppe B: Stottern wird bei Stotterern vermindert
  • beim Flüstern,
  • bei mäßigem Lärm/Rauschen ab etwa 50 dB,
  • beim Sprechen mit DAF oder FAF,
  • beim Führungs- und Chorsprechen (Unisono-Effekt)
Den Situationen der Gruppe B ist gemeinsam, dass die Personen ihre eigene Sprache leiser oder schlechter oder verfremdet hören, dass sie ihre Rede aber dennoch in vollem Umfang verstehen können, denn eine verminderte oder veränderte akustische Wahrnehmbarkeit führt meist zur Erhöhung der auditiven Aufmerksamkeit: Wenn etwas schlecht oder in ungewohnter Weise zu hören ist, hört man genauer hin. Gerade die Aufmerksamkeit ist aber entscheidend für das Verstehen von Sprache. Und das Verstehen der eigenen Sprache (und nicht das bloße Hören) ist m. E. ausschlaggebend für die Steuerung des Sprechens über die auditorische Rückkopplung. Es ist deshalb weitaus plausibler, bei den Befunden der Gruppe B die Reduzierung des Stotterns als Folge einer verbesserten auditorischen Rückopplung anzusehen und nicht als Folge einer Verminderung der Rolle derselben.

Die Befunde der Gruppe A erfordern eine weitere Differenzierung: Beim Verlusst des äußeren Hörvermögens und bei künstlicher Vertäubung (starker Lärm oder „Maskierung“ – so dass man „sein eigenes Wort nicht versteht“), kann die Kontrolle des Sprechens dadurch erfolgen, dass der Lauterzeugung und den Sprechbewegungen – beides wird propriozeptiv wahrgenommen – das innere Hören, welches für das stille Denken charakteristisch ist, quasi „hinzugeschaltet“ wird (beim gewöhnlichen Sprechen geschieht dies nicht, denn das innere Hören wird gerade dadurch erlernt, dass Lautgebung und Sprechbewegungen unterdrückt werden - siehe "Sprechtheorie", Teile 3 und 4 auf Seite 2 dieses Threads; zudem ist inneres Hören bei gleichzeitigem äußeren Hören der eigenen Sprache unmöglich). Da durch die Aktivierung des inneren Hörens die auditorische Rückkopplung gesichert ist, tritt in diesen Fällen, genau wie beim stillen verbalen Denken, kein Stottern auf.

Anders liegen die Dinge bei einer Wernicke-Aphasie: In diesem Fall ist das Verstehen der eigenen Sprache nicht oder nur eingeschränkt möglich – das nach meiner Ansicht entscheidende Element der auditorischen Rückkopplung fehlt also teilweise oder ganz. Trotzdem tritt bei Wernicke-Aphasikern kein Stottern auf. Dieser Befund scheint der These, die Ursache des Stottern sei eine gestörte auditorische Rückkopplung, deutlich zu widersprechen. Doch der Widerspruch lässt sich dadurch auflösen, dass man die Art der Rückkopplungsstörung, die für das Auftreten von Stottersymptomen verantwortlich ist, genauer bestimmt und von jener Art Rückkopplungsstörung unterscheidet, die eine Wernicke-Aphasie verursacht.

Da die Wernicke-Aphasie durch eine Läsion hervorgerufen wird, kann man davon ausgehen, dass in diesem Fall die Störung der auditorischen Rückkopplung zeitlich relativ konstant ist. Ganz anders bei der (von mir angenommenen) stotterverursachenden Rückkopplungsstörung, die durch eine Fehlsteuerung der Aufmerksamkeit hervorgerufen wird. Wie ich bereits im Thread "Elf Empfehlungen", Seite 2, Beitrag vom 4., 9. und 12. April dargelegt habe, muss die Aufmerksamkeit der Zyklizität des spontanen Sprechens angepasst sein: Sie muss sowohl in die Zukunft als auch in die Vergangenheit gerichtet werden, und zwar am Beginn einer syntaktischen Einheit mehr in die Zukunft (Wort-Planung), am Ende dagegen mehr in die Vergangenheit (Hören und Verstehen des Gesagten). Die Richtung der Aufmerksamkeit beim Sprechen ist also einem andauernden schnellen Wechsel unterworfen.

Die das Stottern verursachende Störung besteht meiner Ansicht nach darin, dass die Aufmerksamkeit zu früh vom Hören des Gesagten zum Vorausplanen des noch zu Sagenden wechselt. Dafür sprechen auch die Befunde von K. Biermann: Bei Stotterern war der motorische Kortex bereits beim Hören nachzusprechender Wörter und Sätze aktiviert – bei den nichtstotternden Kontrollprobanden war dies nicht der Fall (S. 104f.). Bezeichnend ist, dass die erhöhte Aktivierung des Motorkortex vor dem Stottern und nicht als Begleiterscheinung des Stotterns auftrat. Zudem bestätigen Biermanns Ergebnisse die Erfahrung, dass die Stotterrate mit wachsender Komplexität des Auszusprechenden zunimmt – einzelne Wörter werden seltener gestottert als Sätze, nachgesprochene Sätze seltener als selbstgebildete. Katja Biermann schreibt: „Dabei ist nicht die Komplexität per se der auschlaggebende Faktor für die Stotterrate, sondern die Antizipation der Komplexität.“ (S. 94f.) Dazu kommt für viele Stotterer noch die Antizipation von Stotterereignissen und die Planung von deren Vermeidung.

Es gibt also gute Gründe für die Annahme, dass bei Stotternden die Aufmerksamkeit zu früh von der Sensorik, vom Hören auf die eigene Rede zur Motorik, zum Weitersprechen-Wollen, zur Vorausplanung und Antizipation wechselt. Da Sprache aber nicht verstanden werden kann, wenn die Aufmerksamkeit nicht auf das Hören des Sprachsignals gerichtet ist, kann eine gesprochene syntaktische Einheit, die nicht bis zu ihrem Ende hinreichend aufmerksam gehört wurde, als unvollständig, also als fehlerhaft, „missverstanden“ werden.

Katja Biermann vermutet offenbar etwas ähnliches, wenn sie schreibt: „Möglicherweise zeigen stotternde Probanden eine fehlerhafte Integration auditiver Rückmeldung beim Sprechen […], sodass sie nicht adäquat darüber 'informiert' werden, welche Artikulationen sie bereits durchgeführt oder begonnen haben.“ (S. 3) Doch es ist gerade nicht der Sprecher, der „falsch informiert“ wird, sondern es ist ein die Sprechautomatik kontrollierendes und steuerndes System in seinem Gehirn, dessen Aktivität ihm nicht bewusst wird. Dadurch, dass der Sprecher von der formalen Korrektheit seiner Rede überzeugt ist und weiterzusprechen versucht, wird Stottern erst möglich.

Er hat keine bewusste Wahrnehmung eines Fehlers: Sowohl die Propriozeption der Sprechbewegung (auf die gerade Stotterer häufig sehr achten) als auch das rein akustische Wahrnehmen des Sprach-Geräuschs vermitteln ihm, dass er die syntaktische Einheit zu Ende gesprochen hat. Daher startet er das Programm für das Sprechen der nächsten Einheit. Da aber das für das Verstehen und Bewerten des Gesagten zuständige System der Meinung ist, dass die vorangegangene syntaktische Einheit noch nicht beendet ist, blockiert es den Start der nachfolgenden Einheit. Erst durch diese Blockierung – also durch das Stottern – wird dem Sprecher bewusst, dass ein Fehler aufgetreten ist. Und natürlich neigt er dazu, den Fehler in dem zu vermuten, was er gerade vergeblich zu tun versucht, und nicht in dem, das er, scheinbar erfolgreich, beendet hat.

Bei einer Wernicke-Aphasie treten solche Unvollstädigkeits-Fehlermeldungen nicht auf, denn um Sätze wie "Das Essen wurde auf den Tisch" als unvollständig zu erkennen, muss man sie verstehen - d.h. das kontrollierende System muss den Anfang des Satzes verstehen, um zu merken, dass der Schluss fehlt. Bei Wernicke-Aphasikern ist das Verstehen von Sprache aber durchgängig gestört. Deshalb stottern sie weder, noch bemerken sie ihre Versprecher.

Soviel für heute. Bis hierher handelt es sich weitgehend um theoretische Überlegungen. Es gibt jedoch empirische Befunde, die für deren Richtigkeit sprechen - dazu werde ich in Kürze hier etwas schreiben.

Gruß, Torsten
www.stottertheorie.de

Benutzeravatar
Jaspis
nicht mehr wegzudenken
nicht mehr wegzudenken
Beiträge: 945
Registriert: 27. August 2007 22:04
PLZ: 65xxx
Ort: Hessen
BVSS-Mitglied: ja

Re: Stottern und auditorisches Feedback

Beitrag von Jaspis » 31. Mai 2011 22:51

Hallo!
Auf der Suche nach etwas anderem bin ich auf die Teilgebiete der Psycholinguistik gestoßen, deren eines das auditives Sprachverstehen (Hören) ist und das mich damit an diesen Thread hier erinnerte.

Sprechen ist nur 1 Teilgebiet von vielen, was wir mit Sprache machen können. Deshalb paßt diese Zusammenstellung als Übersicht hier vielleicht ganz gut rein.

Teilgebiete der Psycholinguistik [Quelle]

1. Spracherwerb
-Erstspracherwerb
-Zweitsprachlernen

2. Sprachverstehen
-auditives Sprachverstehen (Hören)
-visuelles Sprachverstehen (Lesen)
-somatosensiblesSprachverstehen (Lesen)

3. Sprachproduktion
-Sprechen
-Schreiben
-Zeichensprache

Übrigens bekomme ich auch Blockaden beim Schreiben, wenn mir jemand zusieht. ;-) Womöglich bin ich damit nicht allein?

Benutzeravatar
Torsten
nicht mehr wegzudenken
nicht mehr wegzudenken
Beiträge: 1011
Registriert: 9. Februar 2011 17:47
Ort: Salzwedel
BVSS-Mitglied: ja

Re: Stottern und auditorisches Feedback

Beitrag von Torsten » 3. Juni 2011 22:25

Hallo Jaspis,
neben der Psycholinguistik gibt es inzwischen auch die Forschungsrichtung Neurolinguistik. Und es spricht vieles dafür, dass bei der Produktion und beim Verstehen von Sprache sehr ähnliche Vorgänge ablaufen.

Sehr interessant ist die Seite von Günter Kochendörfer. Seine Theorie der Sprachproduktion ist meiner sehr ähnlich: Auch Kochendörfer ist der Ansicht, dass die auditorische Rückkopplung die Grundlage für die Steuerung des Sprechens ist und dass Rückkopplungsstörungen Stottern auslösen können.
Jaspis hat geschrieben:Übrigens bekomme ich auch Blockaden beim Schreiben, wenn mir jemand zusieht. ;-) Womöglich bin ich damit nicht allein?
Blockaden beim Schreiben bekomme ich nicht, aber es passiert mir häufig, dass ich mich sehr auf das konzentriere, was ich schreiben will und nicht auf das gucke, was ich zu Papier bringe - also fehlendes visuelles Feedback. Die Folge ist, dass ich Buchstaben oder Wörter überspringe.

Ich bin Euch noch Auskunft schuldig über die empirischen Belege für die "falschen Unvollständigkeits-Rückmeldungen", die m. E. das Stottern unmittelbar auslösen. Ich habe den entsprechenden Text inzwischen fertig, zögere aber, ihn hier einzustellen, weil er ziemlich lang geworden ist und ohne die "Sprechtheorie", die ich noch nicht zu Ende dargstellt habe, eigentlich nicht zu verstehen ist.

Gruß, Torsten
www.stottertheorie.de

paul.dest
nicht mehr wegzudenken
nicht mehr wegzudenken
Beiträge: 1163
Registriert: 3. Mai 2010 22:36
Kontaktdaten:

Re: Stottern und auditorisches Feedback

Beitrag von paul.dest » 4. Juni 2011 00:04

Torsten hat geschrieben:...es passiert mir häufig, dass ich mich sehr auf das konzentriere, was ich schreiben will und nicht auf das gucke, was ich zu Papier bringe - also fehlendes visuelles Feedback. Die Folge ist, dass ich Buchstaben oder Wörter überspringe.
Sieht so aus, als würde sich jeder entsprechend seiner eigenen Theorie des Stotterns interpretieren. ;-)
http://stottern-verstehen.de

Benutzeravatar
Torsten
nicht mehr wegzudenken
nicht mehr wegzudenken
Beiträge: 1011
Registriert: 9. Februar 2011 17:47
Ort: Salzwedel
BVSS-Mitglied: ja

Re: Stottern und auditorisches Feedback

Beitrag von Torsten » 4. Juni 2011 12:39

paul.dest hat geschrieben:Sieht so aus, als würde sich jeder entsprechend seiner eigenen Theorie des Stotterns interpretieren. ;-)
Klar - ich denke, man neigt immer erst mal dazu, sich (bzw. sein Verhalten) entstrechend seiner eigenen Theorien zu intepretieren - sofern man eigene Theorien dazu hat :D . Aber ich würde das Sich-Verschreiben nicht mit dem Stottern vergleichen, sonden eher mit dem Sich-Versprechen. Es gibt eine bestimmte Art von Versprechern, die anscheinend auch auf einem Vorauseilen der Aufmerksamkeit beruhen - sie werden in der Psycholinguistik sogar als "Antizipationen" bezeichnet: wenn ein Laut vorweggenommen wird, der erst später dran ist, z. B. "Mau der Bauer" statt "Bau der Mauer" oder "Antipitation" statt "Antizipation". Zu den witzigen Verdrehungen kommt es dabei nur, wenn der Fehler nicht vorher bemerkt wird.

Gruß, Torsten
www.stottertheorie.de

Benutzeravatar
Torsten
nicht mehr wegzudenken
nicht mehr wegzudenken
Beiträge: 1011
Registriert: 9. Februar 2011 17:47
Ort: Salzwedel
BVSS-Mitglied: ja

Re: Stottern und auditorisches Feedback

Beitrag von Torsten » 19. Juni 2011 17:09

Hallo,
um hier voranzukommen, werde ich jetzt zunächst meine Sprechtheorie zu Ende darstellen. Es geht mir dabei darum, verständlich zu machen, warum das auditorische Feedback - das verstehende Hören der eigenen Sprache - für das Bilden von Sätzen erforderlich ist. Es folgt also

Sprechtheorie, Teil 8:

Das wichtigste Merkmal des Modells der Sprachproduktion, das ich hier vorstellen will, ist folgendes: Ein Satz wird nicht zuerst geistig geplant, dann innerlich formuliert und dann ausgesprochen, sondern beim spontanen Sprechen beginnt man einen Sazu einfach mit dem, über das man reden will. Man will z. B. etwas über Hans sagen und beginnt mit "Hans...", oder man will erzählen, was gestern abend passiert ist und beginnt mit "Gestern abend..." Der Sprecher beginnt den Satz also mit einer Konstituente (einem Wort oder einer zusammenhängenden Wortgruppe), die sich unmittelbar aus seiner Intention ergibt – aus dem „Etwas“, über das er reden will und das ihm in diesem Moment bewusst ist.

Das spontane Sprechen eines Satzes beginnt demnach (trivialerweise) mit dem spontanen Sprechen eines Wortes oder einer Phrase (einer zusammenhängenden Wortgruppe). Das ist ein automatisch ablaufender motorischer Vorgang, dem keine Planung, sondern nur eine Entscheidung vorausgeht. Mit diesem Anfang wird jedoch, und zwar unbewusst, ein syntaktischer und semantischer Kontext erzeugt, der die Optionen für die weitere Formulierung des Satzes einschränkt. So kann ich beispielsweise den mit „Hans...“ begonnenen Satz dadurch fortsetzen, dass ich ein Verb (oder ein Hilfsverb als Teil eines prädikativen Rahmens) folgen lasse: „Hans schläft...“ oder: „Hans hat... geschlafen...“. Ich kann aber auch damit fortfahren, dass ich „Hans“ näher erkläre, z. B.: „Hans, mein jüngerer Bruder,...“ In diesem Fall muss nach der Erweiterung des Satzgegenstandes aber zwingend die Satzaussage beginnen, und zwar mit einem Verb bzw. Hilfverb.

Derartige syntaktische Regeln sind uns beim spontanen Sprechen nicht bewusst. Sie müssen uns überhaupt nicht explizit bekannt sein – wir haben durch jahrelange Übung (durch Nachahmung) gelernt, sie automatisch zu befolgen. Doch damit das möglich ist, muss der bereits formulierte Abschnitt des Satzes im Arbeitsgedächtnis gespeichert und repräsentiert werden. Und diese Repräsentation muss laufend aktualisiert werden, denn sie bildet den Kontext, der die Regeln festlegt und die Optionen für das Weitersprechen einschränkt.

Auch die Regeln der Grammatik befolgen wir automatisch, wenn auch vielleicht weniger unbewusst als die Grundregeln des Satzbaues. Konjugations- und Deklinationsregeln haben wir beim Erwerb der Muttersprache indirekt erlernt durch die Einübung in den Gebrauch von Funktionswörtern (Hilfsverben, Modalverben, Artikel, Pronomen, Präpositionen) und Affixen (Vor- und Nachsilben, durch die ein Wort in seiner Bedeutung verändert oder zu einem anderen Wort in Beziehung gesetzt werden kann). Komplexere Satzkonstruktionen werden möglich durch das indirekte Erlernen syntaktischer Regeln bei der Verwendung der Konjunktionen, und die Syntaxregeln für Fragesätze werden mit dem Gebrauch der Fragepartikel eingeübt.

Die spontane, aber bewusste Entscheidung für die Verwendung eines Wortes in einem Satz ist also oft zugleich die unbewusste Inkraftsetzung von Regeln, die die weitere Formulierung des Satzes bestimmen und die Wahlmöglichkeiten einschränken. Damit die im konkreten Fall geltenden Regeln eingehalten werden können, müssen diese Regeln im Bewusstsein präsent sein – jedoch nicht direkt, sondern indirekt durch die Repräsentation des bereits formulierten Satzabschnittes. Das bereits Gesagte bildet den Kontext, in den der Sprecher weitere Satzteile in der richtigen Reihenfolge und grammatisch korrekt einfügen kann.

Die Repräsentation dieses Kontextes ist auch wichtig für das rechtzeitige Beenden eines Satzes – bevor man „den Faden verliert“: Die Zuhörer und vor allem der Sprecher selbst müssen noch erfassen können, wie sich neu hinzukommende Satzglieder auf die bereits vorhandenen beziehen und welche Bedeutung sie für die Aussage des gesamten Satzes haben. Das Satzende wird prosodisch markiert – bei Aussagesätzen durch das Senken der Stimme, bei Fragen durch das Heben. Auch die Satzmelodik der Muttersprache haben wir als Kinder durch Nachahmung eingeübt und wenden sie als Ausdrucksmittel automatisch an.

Damit das Gesagte als Kontext im Arbeitsgedächtnis gespeichert werden kann, muss es vorher wahrgenommen werden. Das geschieht bei laut gesprochenen Wörtern und Sätzen gewöhnlich über das äußere Hören und nur beim Denken über das innere Hören (auch beim verbalen Denken müssen die syntaktischen und grammatischen Regeln respektiert werden, wenn klare und sinnvolle Gedanken-Sätze entstehen sollen). Da beim stillen Denken von Sätzen die Propriozeption des Sprechapparates ohnehin keine Rolle spielen kann (weil der Sprechapparat nicht bewegt wird), kann man davon ausgehen, dass die Propriozeption auch beim lauten Sprechen nur für die Kontrolle der Lautbildung, nicht aber für die Wort- und Satzbildung von Bedeutung ist.

Es ist also das Hören, das die sensorische Rückkopplung des Sprechvorgangs gewährleistet und dadurch die automatische Bildung formal korrekter Sätze ermöglicht, So kann der Sprecher sich weitgehend auf das Inhaltliche konzentrieren: auf die Wahl seiner Worte.

Zusammenfassung:

Das Selbstorganisationsmodell des spontanen Sprechens

Anstatt das Hervorbringen von Sätzen in Planung und Ausführung zu teilen, beschreibt das hier vorgestellte Modell die Bildung von Sätzen als einen Prozess der Selbstorganisation: Am Beginn des Sprechens ist die Form eines Satzes noch nicht festgelegt, der Satz „wächst“ gewissermaßen aus der Intention des Sprechers. Das geschieht in einer Wechselwirkung zwischen spontaner Wortwahl und weitgehend automatischer Satzformung, vermittelt durch die Rückkopplung über das Hören.

Anstatt unbewusste Verarbeitungssequenzen, etwa in einem „Formulator“ zu postulieren, beschreibt das Selbstorganisationsmodell des spontanen Sprechens alle für den Inhalt eines Satzes relevanten Vorgänge als dem Sprecher bewusste Aktivitäten: die Wahl der Wörter, das Einfügen der Wörter in den Satzkontext, die Transformation von Wörtern gemäß der Grammatik, Betonung und Prosodie sowie das Hören des Gesagten, seine Kontrolle und, falls nötig, dessen Berichtigung. Denn auch wenn die meisten dieser Aktivitäten automatisch erfolgen, so erfolgen sie doch nicht unbewusst: Auch wenn wir automatisch statt „das Haus des Vater“ richtig „das Haus des Vaters“ sagen, so ist uns dennoch bewusst, dass wir das tun.

Nur wenn alle für die Formulierung eines Satzes relevanten Aktivitäten dem Sprecher bewusst sind – wenn es sich also um seine bewussten Entscheidungen handelt – kann er in vollem Umfang für den Inhalt dieses Satzres verantwortlich sein. Das Selbstorganisatiosmodell des spontanen Sprechens (SOMSS) beschreibt die Sprachproduktion als einen bewussten, durch Übung automatisierten sensomotorischen Prozess. Unbewusst sind lediglich die Umsetzung der bewussten Entscheidungen in Befehle des Gehirns an die beteiligten Muskeln sowie die subkortikalen Prozesse der sensomotorischen Koordination und Steueung. Das sind aber diejenigen unbewussten Gehirnaktivitäten, die zu allen automatisierten sensomotorischen Prozessen gehören, auch zum Laufen, Radfahren oder Klavierspielen.

Die Bestimmung des verbalen Denkens als inneres Sprechen und das SOMSS erlauben es, auch die Entstehung verbaler Gedanken als Prozess der Selbstorganisation zu begreifen. Der Unterschied zum lauten Sprechen besteht nur darin, dass die Rückkopplung nicht über das äußere, sondern über das innere Hören erfolgt. Typischerweise spielt beim Denken die bewusste Wahl der Wörter eine geringere Rolle als beim öffentlichen Sprechen. Die Gedanken „sind frei“, und manchmal scheinen sie direkt aus dem Unbewussten aufzusteigen. Doch dieser Unterschied ist nur graduell: Auch das öffentliche Sprechen kann in gewissen Situationen inhaltlich unkontrolliert erfolgen: Dann „gibt ein Wort das andere“, und „man weiß nicht mehr, was man sagt.“

Die zentrale These des SOMSS ist, dass die automatische Steuerung des spontanen Sprechens wesentlich durch die auditorische Rückkopplung ermöglicht wird. Dies gilt auch für die Zyklizität des Sprechvorgangs: für den Rhythmus der Silben und das Aufeinanderfolgen der Wörter und Sätze. Sprache ist kein Kontinuum, sondern ein Aneinanderreihen in sich geschlossener Elemente, von denen jedes einen Anfang und ein Ende hat.

Für das störungsfreie zyklische Sprechen ist es erforderlich, wahrzunehmen, wann ein Wort oder ein Satz beendet ist und das nächste Wort bzw. der nächste Satz beginnen kann. Es ist naheliegend, anzunehmen, dass auch diese Wahrnehmung über die auditorische Rückkopplung und nicht über die Propriozeption des Sprechapparates erfolgt, denn es besteht ein unmittelbarer Zusammenhang zwischen dem Beenden und dem Verstehen von Wörtern und Sätzen: Ob ein Wort oder Satz korrekt zu Ende gesprochen ist, können wir nur beurteilen, wenn wir das Wort (in seinem grammatischen Kontext) oder den Satz verstanden haben.

Somit folgt aus dem SOMSS ein Zusammenhang zwischen der auditorischen Rückkopplung und dem zyklischen Sprechen, und es ist zu erwarten, dass eine Störung der auditorischen Rückkopplung zu einer Störung des zyklischen Sprechens führen kann. Wie ich mir das konkret denke, habe ich oben (Beitrag vom 14. 5.) und im Thread "Elf Empfehlungen", (Beitrag vom 4. 4. und folgende) dargestellt.

Gruß, Torsten
www.stottertheorie.de

Benutzeravatar
Torsten
nicht mehr wegzudenken
nicht mehr wegzudenken
Beiträge: 1011
Registriert: 9. Februar 2011 17:47
Ort: Salzwedel
BVSS-Mitglied: ja

Re: Stottern und auditorisches Feedback

Beitrag von Torsten » 8. Oktober 2011 21:08

Hallo,
ich möchte hier noch auf einen Aspekt meiner Theorie eingehen, der wahrscheinlich etwas verwirrend ist:

Auf den ersten Blick mag es wiedersprüchlich erscheinen, wenn ich einerseits behaupte, dass das spontane Bilden von Sätzen auf der auditorischen Rückkopplung beruht und ohne diese nicht möglich ist – und andererseits behaupte, dass bei Stotterern diese auditorische Rückkopplung gestört ist. Wenn diese Behauptungen beide richtig sind – wieso können Stotterer dann überhaupt Sätze bilden?

Die Erklärung ist folgende: Wenn ich sage, bei Stotterern ist die auditorische Rückkopplung gestört, dann meine ich damit nicht, dass sie überhaupt keine haben. Wie ich bereits oben („Sprechtheorie“ in diesem Thread, Beitrag vom 12. 4. und folgende) dargelegt habe, geht es bei der auditorischen Rückkopplung um das semantische (= inhaltliche) Verstehen der eigenen Sprache. Das semantische Verstehen der eigenen Sprache ist die Basis der automatischen Steuerung der Satzbildung, der unbewussten oder wenigstens unwillkürlichen Respektierung der syntaktischen und grammatischen Regeln. Und: Das semantische Verstehen der eigenen Sprache ist davon abhängig, dass die Aufmerksamkeit auf das Hören der eigenen Stimme gerichtet ist.

Für das semantische Verstehen ist es aber nicht erforderlich, jedes Wort, jede Phrase bis zum Ende zu aufmerksam zu hören. Wenn wir z. B. „Bundeska... Ang... Mer...“ hören, haben wir verstanden, was gemeint ist – die Enden der Wörter sind für das semantische Verstehen unwichtig. Das ist bei vielen Wörtern und Phrasen (zusammenhängenden Wortgruppen) so, und es gilt natürlich auch für das Hören der eigenen Sprache. Die Satzbildung wird daher kaum behindert, wenn die Richtung der Aufmerksamkeit zur Sprechplanung (zur Auswahl der nächsten Wörter) wechselt, bevor das gerade Gesagte zu Ende gehört ist.

Die Satzbildungs-Automatik ist also nicht auf das Bis-zu-Ende-Hören jedes Wortes angewiesen. Es gibt aber eine Automatik, die darauf angewiesen ist: die Sequenzierungs-Automatik, die die Wörter zu Wortketten zusammenfügt. Diese Automatik muss genau erkennen können, wann ein Wort zu Ende gesprochen ist, damit das Startsignal für das Sprechen des nächsten Wortes weder zu früh noch zu spät gegeben wird.

Man könnte nun meinen, dass für die Sequenzieungs-Automatik das semantische Verstehen nicht erforderlich sei – dass es genügen würde, das Ende des Sprechgeräusches zu hören und das Ende der Mundbewegungen zu spüren. Das genügt aber nicht, weil die Sequenzierungs-Automatik auch entscheiden muss, ob ein Wort oder eine Phrase korrekt beendet ist oder ob noch etwas kommen muss. Sie müsste sonst warten, ob nicht vielleicht doch noch was kommt – aber wie lange? Entscheidungen über die Wortenden sind aber nur möglich, wenn auch die Inhalte verstanden werden. Ob das gesprochene Wort „Vater“ beendet ist, hängt davon ab, ob man „Vater“ meint und nicht vielleicht „Vaterhaus“, und davon, ob „Vater“ im grammatischen Kontext korrekt ist und es nicht z. B. „(des) Vaters“ heißen muss. Die Sequenzierungs-Automatik muss also erkennen, welche Rolle „Vater“ innerhalb des Satzes spielt.

Das bedeutet, dass die Sequenzierung vom semantischen Verstehen abhängig ist – jedenfalls dann, wenn es sich bei den Wortketten um Sätze handelt. Diese Abhängigkeit wird noch klarer, wenn man bedenkt, dass die Sequenzierungs-Automatik auch die Pausen zum Atemholen in die Wortketten einbauen muss. Das geschieht aber nicht an beliebigen Stellen, sonden da, wo der Inhalt des Satzes eine Pause zulässt. Die Satzbildung und die Sequenzierung sind also vom semantischen Verstehen abhängig - das semantische Verstehen aber nicht vom Zu-Ende-Hören der Wörter und Phrasen. Von Letzterem, dem Zu-Ende-Hören, ist aber die Sequenzierungs-Automatik abhängig.

Man kann die Sequenzierung als Schnittstelle ansehen zwischen den geistegen Prozessen der Sprechplanung (Wahl der Wörter, Satzbildung) und der motorischen Steuerung der Artikulation. Sprechplanung und Artikulation finden beim spontanan Sprechen nicht säuberlich getrennt nacheinander statt, sondern sie sind ineinander „verzahnt“. Die Sequenzierungs-Automatik sorgt sozusagen für das störungsfreie Ineinandergreifen der Zähne –-- wenn sie funktioniert. Was sie bei Stotterern aber nicht tut, weil sie unvollständige, verstümmelte Feedback-Informationen bekommt: die Enden fehlen. Für die „geistige“ Sprechplanung sind diese Informationen, wie gesagt, ausreichend – aber nicht für die automatische Sequenzierung und motorische Steuerung des Sprechens.

Man kann Stottern also so verstehen, dass sich die geistigen Prozesse beim Sprechen von den motorischen gewissermaßen abkoppeln (sich zu stark verselbständigen), sodass die „Verzahnung“ nicht mehr gewährleistet ist. Das verstehende Hören der eigenen Rede erfolgt nur noch soweit, wie es für die geistigen Prozesse nötig ist – und das ist für die Sequenzierung und die motorische Steuerung des Sprechens zu wenig.

Gruß, Torsten
Zuletzt geändert von Torsten am 9. Oktober 2011 15:58, insgesamt 1-mal geändert.
www.stottertheorie.de

Benutzeravatar
Roland Pauli
kompetent
kompetent
Beiträge: 393
Registriert: 15. August 2006 12:00
PLZ: 91058
Ort: Erlangen-Tennenlohe
BVSS-Mitglied: ja
Kontaktdaten:

Re: Stottern und auditorisches Feedback

Beitrag von Roland Pauli » 9. Oktober 2011 12:51

Lieber Torsten,

vielen Dank für Deine anregenden Ausführungen.
Ich merke bei mir, dass mir Nebengeräusche in Gesprächen sehr zu schaffen machen. In Vortragssituationen zwar auch etwas, aber da habe ich gelernt, mich gut auf mich selbst und meine Stimme zu fokussieren.

Herzlichst
Roland
www.ropana.de

Benutzeravatar
Torsten
nicht mehr wegzudenken
nicht mehr wegzudenken
Beiträge: 1011
Registriert: 9. Februar 2011 17:47
Ort: Salzwedel
BVSS-Mitglied: ja

Re: Stottern und auditorisches Feedback

Beitrag von Torsten » 9. Oktober 2011 15:57

Hallo Roland,
mit Nebengeräuschen geht es mir genauso - es fällt mir schwer, in einem Stimmengewirr der Rede eines Gesprächspartners zu folgen. Und ich verspüre in solchen Situationen auch wenig Lust, selbst zu sprechen - außer, ich habe etwas Hochwichtiges mitzuteilen und fühle mich berechtigt, die anderen zu übertönen, um mir Gehör zu verschaffen.

Es hat schon einmal jemand in diesem Forum geschrieben, dass er (oder sie - ich glaube, es war eine Sie) ähnliche Schwierigkeiten hat. Es wäre interessant, zu erfahren, ob noch mehr Stotterer Probleme mit dem "Cocktailparty-Effekt" haben.
Herzlichen Gruß

Torsten
www.stottertheorie.de

Antworten

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 1 Gast