Stottern und auditorisches Feedback

Aktuelle Forschungsergebnisse, Medikamente, medizinische Aspekte
Benutzeravatar
Torsten
nicht mehr wegzudenken
nicht mehr wegzudenken
Beiträge: 1005
Registriert: 9. Februar 2011 17:47
Ort: Salzwedel
BVSS-Mitglied: ja

Re: Levelts Modell

Beitrag von Torsten » 27. April 2013 12:31

Hallo Paul,

ich bin der Ansicht, dass ein Modell des normalen Sprechens durchaus Grundlage einer Theorie des Stotterns sein sollte. Ich gehe davon aus, dass bei Stotterern das normale Sprechen gestört ist, und nicht, dass das Sprechen bei ihnen grundsätzlich anders funktioniert als bei Nichtstotterern. Beachte, dass Levelts Modell über die „neuronalen Korrelate“ – also darüber, in welchen Gehirnregionen oder auf welcher Hirnhälfte etwas passiert – nichts aussagt. Was ich an Levelts Modell kritisiere, ist die strikte Trennung von Formulierung und Artikulation: Ich bin überzeugt, dass beim spontanen Sprechen Wörter und Sätze nicht zuerst formuliert und danach artikuliert werden, sondern dass sie formuliert werden, indem sie artikuliert werden.

Ein Indiz dafür, dass das tatsächlich so ist, sind die in der normalen Spontansprache häufig auftretenden ''mixed errors'', z.B. dieser Versprecher von mir:

„Der Tee – äh – der Schnee ist getaut.“

Zunächst einmal habe ich /schn/ mit /t/ verwechselt, vermutlich aufgrund der Antizipation des /t/ in „tauen“. Das kann man als Artikulationsfehler ansehen: Es wurden falsche Laute gesprochen. Aber warum habe ich nicht „Tschee“ oder „Tnee“ gesagt? Offenbar handelt es sich in Wahrheit um eine Wortverwechslung: Ich habe die beiden Wörter Schnee und Tee verwechselt. Das wäre also ein Formulierungsfehler. Aber warum habe ich die beiden Wörter verwechselt? Offenbar nur deshalb, weil sie ähnlich artikuliert werden, denn inhaltlich haben die Wörter „Schnee“ und „Tee“ nichts miteinander zu tun*. Etwas anderes wäre es, wenn ich gesagt hätte: „Das Eis ist getaut.“ und hätte den Schnee gemeint – das wäre ein reiner Formulierungsfehler. Die Verwechslung von „Schnee“ und „Tee“ ist ein typischer mixed error – und die kommen viel häufiger vor als reine Formulierungs- und reine Artikulationsfehler**. Und das deutet darauf hin, dass beim spontanen Sprechen Formulierung und Artikulation nicht streng getrennt sind, wie in Levelts Modell, sondern eng miteinander verzahnt.

Was hat das mit Stottern zu tun? Stotterer haben i.d.R. kein Formulierungsproblem: Sie wissen, was sie sagen wollen und können korrekte Sätze bilden (und diese z.B. aufschreiben). Stotterer haben aber auch kein reines Artikulationsproblem: Beim Lesen im Chor oder beim Shadowing können sie i.d.R. fließend sprechen***. In Levelts Modell ist für Stottern also kein Platz, weil Stottern offenbar irgendwo zwischen Formulierung und Artikulation – between language and speech – geschieht. Man wird Stottern besser in einem Modell der Sprachproduktion erklären können, in dem Formulierung und Artikulation als eng verzahnt gedacht sind.

Was deinen zweiten Punkt betrifft, gebe ich dir Recht – da habe ich Levelt Unrecht getan: Der Gedanke der inkrementellen Satzproduktion war ihm durchaus vertraut. Als ich den Forumsbeitrag schrieb, kannte ich nur dieses berühmte Modellschema, das nur die Produktion von Wörtern oder vielleicht Phrasen beschreibt, und hatte Levelts Buch noch nicht gelesen - was ich aber inzwischen nachgeholt habe.
Gruß

Torsten

*) Ich hatte jedenfalls nicht den Hintergedanken, dass sowohl Schnee als auch Tee überwiegend aus Wasser bestehen, dass auch gefrorener Tee auftauen kann, oder dergl. :D
**) Schöne Beispiele findet man unter radiopannen.de, etwa "Kleinwagen" statt "kein Wagen", "Balkon" statt "Balkan", "Wahnmache" statt "Mahnwache"...
***) Interessanterweise sind unter diesen Bedingungen die Formulierungsanforderungen stark vermindert - zumindest muss keine Message 'encodiert' werden. Und es ist - umgekehrt - auch gezeigt worden, dass die Stotterrate mit den Formulierungsanforderungen (Satzlänge und -komplexität) tendenziell steigt. Auch daran zeigt sich, dass Stottern kein reines Artikulationsproblem ist.
www.stottertheorie.de

paul.dest
nicht mehr wegzudenken
nicht mehr wegzudenken
Beiträge: 1163
Registriert: 3. Mai 2010 22:36
Kontaktdaten:

Re: Levelts Modell

Beitrag von paul.dest » 28. April 2013 15:54

Hallo Torsten,
Torsten hat geschrieben:Beachte, dass Levelts Modell über die „neuronalen Korrelate“ – also darüber, in welchen Gehirnregionen oder auf welcher Hirnhälfte etwas passiert – nichts aussagt.
Na eben! Es liegt in der Absicht von Levelt, kein Gesamtmodell, sondern nur ein Aspektmodell zu liefern. Insbesondere ist es, wie Du selbst hervorhebst, kein neurolingustisches Modell: es erhebt nicht den Anspruch, den "Sprachteil" des Gehirns zu modellieren. Und genau deswegen - weil es lediglich ein Aspektmodell ist - beansprucht es weder Alleinstellung noch steht es in Konkurrenz zu Modellen, die andere Aspekte der Sprachproduktion modellieren. Es ist sogar auf Modelle anderer Aspekte angewiesen, um ein Ganzes zu ergeben.

...

Es ist (von mir) nicht mal richtig zu sagen, dass das Modell von Levelt ist. In der Form von 1988 ist es lediglich insoweit "von Levelt", als Levelt es in seinem Werk "Speaking" sehr ausführlich und verständlich dokumentiert. Das jedoch, was er dort so ausführlich beschreibt, ist nicht das Ergebnis seiner persönlichen kreativen Eingebung, sondern das Zwischenergebnis einer Modellkonstruktion, welche die immer wieder neu hinzukommenden Experimentaldaten zu modellieren versucht und auf Modell-Vorgängern vieler (anderen) Forscher basiert: ...

...
Torsten hat geschrieben:Was ich an Levelts Modell kritisiere, ist die strikte Trennung von Formulierung und Artikulation: Ich bin überzeugt, dass beim spontanen Sprechen Wörter und Sätze nicht zuerst formuliert und danach artikuliert werden, sondern dass sie formuliert werden, indem sie artikuliert werden.
Die Trennung von Formulierung und Artikulation ist kein Wunsch von Levelt, seiner Vorgänger oder Nachfolger, sondern eine Notwendigkeit, um den Experimentaldaten gerecht zu werden. Ein Modell ohne diese Trennung kann die Experimentaldaten der Sprachproduktion schlichtweg nicht erklären.

Zu besagten Experimentaldaten gehören:
  1. Reaktionszeit-Experimente,
  2. Experimente mit semantischen/lexikalischen Entscheidungsaufgaben,
  3. Bennungsexperimente,
  4. Experimente zum semantischen und phonologischen Priming,
    und nicht zuletzt
  5. Tonnen und Abertonnen von Versprecherdaten. (*)
Womit wir bei Deinem Versprecher-Beispiel wären: ...
Wo liegt denn der Unterschied Deines Versprecherbeispiels zu dem von Levelt in der Einführung gewählten?

Beachte, dass Levelt sich nicht nur anhand von (eigenen) Einzelbeispielen mit Versprechern beschäftigt, sondern sie systematisch erforscht (hat): z.B. in "Monitoring and self-repair in speech".
Torsten hat geschrieben:In Levelts Modell ist für Stottern also kein Platz, weil Stottern offenbar irgendwo zwischen Formulierung und Artikulation – between language and speech – geschieht.
Ich glaube, dass diese Deine Behauptung (ab "weil") auf eine Mißdeutung von Levelts Modells zurückzuführen ist. Es scheint mir allerdings richtig, dass in Levelts Modell (in der Version von 1988) "für Stottern ... kein Platz" ist. Nur das Weil ist bei mir anders: es modelliert die Phänomene des normalen Sprechens; und das Stottern im Sinne dieses Forums gehört nunmal nicht dazu.
Torsten hat geschrieben:Man wird Stottern besser in einem Modell der Sprachproduktion erklären können, in dem Formulierung und Artikulation als eng verzahnt gedacht sind.
Kann sein, dass Du damit das Stottern erklärst. Aber die Erklärung von Abertonnen anderer Experimentaldaten (siehe oben) wirst Du dafür aufgeben müssen. Und somit hättest Du das Stottern erklärt, hättest aber kein Sprechen mehr. Und das steht im Gegensatz zu Deiner eigenen Ansicht:
Torsten hat geschrieben:ich bin der Ansicht, dass ein Modell des normalen Sprechens durchaus Grundlage einer Theorie des Stotterns sein sollte.
...

-----------------

Der vollständige Inhalt dieses Beitrages ist ab jetzt nur noch unter http://www.stottern-verstehen.de verfügbar.
Zuletzt geändert von paul.dest am 4. Dezember 2016 10:53, insgesamt 1-mal geändert.
http://stottern-verstehen.de

paul.dest
nicht mehr wegzudenken
nicht mehr wegzudenken
Beiträge: 1163
Registriert: 3. Mai 2010 22:36
Kontaktdaten:

Kein Stottern bei Wernicke-Aphasie?

Beitrag von paul.dest » 28. April 2013 17:12

...

In diesem Beitrag schreibst Du, Torsten:
Torsten am 14.05.2011, 23:00 hat geschrieben:Gruppe A: Stottern tritt nicht auf
  • bei erworbener Taubheit,
  • bei Stotterern unter künstlicher Vertäubung durch extremen Lärm oder Rauschen („Maskierung“),
  • bei Wernicke-Aphasie infolge einer Läsion des auditorischen Kortex.
Was ist Deine Quelle für die Aussage, dass das Stottern bei Wernicke-Aphasie infolge einer Läsion des auditorischen Kortex nicht auftritt?

Ich konnte bisher nur Gegenteiliges rausrecherchieren. ...

...

-----------------

Der vollständige Inhalt dieses Beitrages ist ab jetzt nur noch unter http://www.stottern-verstehen.de verfügbar.
Zuletzt geändert von paul.dest am 4. Dezember 2016 10:54, insgesamt 1-mal geändert.
http://stottern-verstehen.de

Benutzeravatar
Torsten
nicht mehr wegzudenken
nicht mehr wegzudenken
Beiträge: 1005
Registriert: 9. Februar 2011 17:47
Ort: Salzwedel
BVSS-Mitglied: ja

Re: Stottern und auditorisches Feedback

Beitrag von Torsten » 29. April 2013 12:18

Hallo Paul,
mag sein, dass Levelts Modell mit vielen empirischen Befunden vereinbar ist. Aber erstens fragt es sich, ob alle diese Befunde relevant sind – z.B. denke ich, dass normales, zusammenhängendes Sprechen nichts mit Bildbenennung zu tun hat: Ich habe keinerlei Bilder im Kopf, während ich diese Sätze hier tippe, und ich hätte auch keine Bilder im Kopf, wenn ich die Sätze sprechen würde. Überhaupt bezieht sich Levelts Modell (und auch die Weiterentwicklung WEAVER++) vorrangig auf das Produzieren einzelner Wörter. Es ist aber gerade das zusammenhängende Sprechen, bei dem Stottern auftritt, und nicht, oder kaum, das Sprechen isolierter Wörter.

Außerdem könnte es andere Modelle geben, die ebenso mit empirischen Befunden übereinstimmen. Eine Basis für meine Theorie ist das Modell von Engelkamp & Rummer *: Sie nehmen an, das ein Wort im Gehirn in zwei Formen repräsentiert ist: als akustische Wortform und als Sprechprogramm. Die akustische Wortform ermöglicht das Verstehen (Wiedererkennen) des Wortes und das Bilden einer inneren auditiven Vorstellung (beim inneren Sprechen). Das Sprechprogramm steuert das Sprechen des Wortes, also die Bewegungssequenz.
Das bedeutet, ein „phonological encoding“ findet gar nicht statt.

Man darf sich diese Sprechprogramme aber nicht starr denken, sondern, im Sinne Lashleys, als hierarchische Struktur, d.h. es gibt Programme für Laute, für häufig vorkommende Lautkombinationen (eu, au, ng...), für haüfig vorkommende Silben, Wörter, Phrasen, ganze Sätze (Floskeln, Sprichwörter). Größere, übergreifende Programme sind Verknüpfungen kleinerer Programme. Es gibt Programme, die andere Programme verändern können (Pluralbildung, Konjugation, Deklination). Alle diese Sachen spielen sich also auf der Ebene des Sprechens ab – es sind eingeübte Verhaltensroutinen und keine Resultate von Planung oder gar Berechnung im Gehirn.

Die Sprechprogramme bilden sich durch Nachahmung und Wiederholung – so, wie Sprechenlernen eben funktioniert. Und alles, was wir einfach abspulen können – auch ein auswendiggelerntes Gedicht oder ein Rollentext im Theater – wird durch ein solches Sprechprogramm gesteuert. Dagegen müssen beim spontanen, „kreativen“ Sprechen ständig Sprechprogramme ausgewählt und miteinander verknüpft werden. Nur an solchen Verknüpfungsstellen entsteht m.E. Stottern. So erklärt sich, dass manche Stotterer beim Gedichtrezitieren oder Theaterspielen flüssig sprechen.

Wenn mitunter innerhalb eines Wortes gestottert wird, ist das ein Zeichen dafür, dass das Wort nicht durch ein einziges Programm, sondern quasi in Teilen zerlegt gesprochen wurde – möglicherweise in dem Bemühen, jede Silbe – oder eine bestimmte Silbe, die mit einem „schwierigen Laut“ beginnt – einzeln sorgfältig zu artikulieren, um Stottern zu vermeiden.


Wernicke-Aphasie: Wenn Wernicke-Aphasiker stottern würden, könnte ich das als Bestätigung meiner Theorie nehmen, denn Wernicke-Aphasiker haben, da ihr Sprachverstehen gestört ist, vermutlich auch ein gestörtes auditorisches Feedback (jedenfalls, so wie ich das Wesen und die Rolle des audit. Feedbacks verstehe). Ich muss also nur erklären, warum Wernicke-Aphasiker nicht stottern, Sie stottern gewöhnlich nicht, sondern reden zusammenhangloses Zeug – siehe den ersten Teil dieses Videos und dieses Video. Bei dieser Frau allerdings treten stotterähnliche Symptome auf.
Gruß

Torsten

*) Engelkamp, J. & Rummer, R. (1999). The architecture of the mental lexicon. In Friederici, A. D. (Ed.), Language comprehension: A biological perspective (pp. 133–174). Berlin, Heidelberg: Springer.
www.stottertheorie.de

paul.dest
nicht mehr wegzudenken
nicht mehr wegzudenken
Beiträge: 1163
Registriert: 3. Mai 2010 22:36
Kontaktdaten:

Modell der Sprachproduktion nach Levelt / Wernicke-Aphasie

Beitrag von paul.dest » 29. April 2013 21:30

Hallo Torsten,
Torsten hat geschrieben:mag sein, dass Levelts Modell mit vielen empirischen Befunden vereinbar ist. Aber erstens fragt es sich, ob alle diese Befunde relevant sind...
Oho! Verstehe ich Dich richtig: Du ziehst eine Theorie nur deswegen vor, weil sie diejenigen Phänomene erklärt, die Du subjektiv für relevant hältst, und zwar auch dann, wenn diese Theorie dabei im Widerspruch zu einer Menge anderer empirischer Beobachtungen steht, die Du subjektiv für irrelevant hältst?!
Umgangssprachlich nennt man diese Einstellung "launisch".

...
Torsten hat geschrieben:Überhaupt bezieht sich Levelts Modell (und auch die Weiterentwicklung WEAVER++) vorrangig auf das Produzieren einzelner Wörter.
:shock: Torsten, bist Du sicher, dass Du gerade von dem Modell nach Levelt sprichst, das in dem Buch "Speaking" beschrieben ist?! Es besteht nämlich aus 12 Kapiteln, die sich auf etwa 500 Seiten verteilen - schlag doch direkt unter dem Link nach! - ; und nur eines davon - Kapitel 6 "Lexical Entries and Accessing Lemmas", etwa 50 Seiten lang - bezieht sich "vorrangig auf das Produzieren einzelner Wörter". Und auch diese Umschreibung ist bereits eine grobe Vergewaltigung dessen, worum es in dem Kapitel geht: es geht um Lemmas, nicht um Wörter.
Torsten hat geschrieben:Wernicke-Aphasie: Wenn Wernicke-Aphasiker stottern würden, könnte ich das als Bestätigung meiner Theorie nehmen...
Du mißverstehst mich. Mir geht's nicht um Deine Theorie. Ich wollte lediglich wissen, aus welcher Quelle Du die Aussage hast, dass bei Wernicke-Aphasikern kein Stottern auftritt. Dass Wernicke-Aphasie symptomatisch kein Stottern ist, ist durchaus klar. Sonst würde es auch Stottern und nicht Wernicke-Aphasie heißen. Ich habe Deine ursprüngliche Behauptung allerdings so verstanden, dass bisher keine Wernicke-Aphasiker beobachtet worden sind, die gestottert hätten bzw. dass ein bestehendes Stottern durch das Erleiden einer Wernicke-Aphasie verschwinden würde. Beides scheint meinen Recherchen zufolge nicht der Fall zu sein.

...

-----------------

Der vollständige Inhalt dieses Beitrages ist ab jetzt nur noch unter http://www.stottern-verstehen.de verfügbar.
Zuletzt geändert von paul.dest am 4. Dezember 2016 10:56, insgesamt 1-mal geändert.
http://stottern-verstehen.de

Benutzeravatar
Torsten
nicht mehr wegzudenken
nicht mehr wegzudenken
Beiträge: 1005
Registriert: 9. Februar 2011 17:47
Ort: Salzwedel
BVSS-Mitglied: ja

Re: Stottern und auditorisches Feedback

Beitrag von Torsten » 29. April 2013 22:30

Hallo Paul,
meine Bemerkung über die Bilder im Kopf beim Sprechen bezieht sich auf die beliebten Picture-naming-Experimente, die ich nicht für besonders relevant halte, wenn es um eine Theorie über das Sprechen geht. Gewöhnliches Sprechen ist kein Picture-naming. Diese Art Experimente und die Analyse von Versprechern sind aber die beiden Säulen von Levelts Theorie - siehe seinen Aufsatz "Models of word production"

Die Analyse von Versprechern halte ich durchaus für relevant,weil sie tatsächlich Teil der Spontansprache sind, Ich denke aber, dass die Versprecher auch mit anderen Modellen, z.B. dem von Engelkamp & Rummer, erklärt werden können.

Meine Quelle bzgl. Aphasien war A. Friederici: Neuropsychologie der Sprache, Stuttg. 1984. Über die Wernicke-Aphasie schreibt sie auf Seite 39: "Die Spontansprache der Patienten mit Wernicke-Aphasie [...] ist von normaler, d.h. flüssiger Sprechgeschwindigkeit, Intonation und Prosodie."
Gruß

Torsten
www.stottertheorie.de

paul.dest
nicht mehr wegzudenken
nicht mehr wegzudenken
Beiträge: 1163
Registriert: 3. Mai 2010 22:36
Kontaktdaten:

Re: Modell der Sprachproduktion nach Levelt / Wernicke-Aphas

Beitrag von paul.dest » 30. April 2013 21:16

Hallo Torsten,
Torsten hat geschrieben:Diese Art Experimente und die Analyse von Versprechern sind aber die beiden Säulen von Levelts Theorie - siehe seinen Aufsatz "Models of word production"
Weder sind es die (einzigen) Säulen "Levelts Theorie" noch beschreibt dieser Artikel "Levelts Theorie". Der Artikel ist ein Review verschiedener - wie der Titel schon sagt - Modelle der Wortproduktion. ...

Sofern man sich keine 500 Seiten antun will, so kann Levelts "Producing spoken language: A blueprint of the speaker" als Zusammenfassung dienen; sind aber immer noch etwa 35 Seiten. Zwar weniger Umfang, aber dadurch leider auch viel weniger verständlich, weil die Erklärungen äußerst komprimiert ausfallen und ausführliche Beispielerklärungen der Kürze wegen entfallen.

...

[Wernicke-Aphasie]
... - Ok, dann gibt's ja gar keinen Widerspruch zwischen Deinen und meinen Quellen: Stottern kann bei Wernicke-Aphasie durchaus vorkommen, beide Phänomene schließen aneinander nicht aus und bedingen einander nicht. Insofern hat Deine Wernicke-Aphasie-Aussage eine ganz andere Bedeutung als "Stottern tritt nicht auf bei erworbener Taubheit" - denn Taubheit schließt das Stottern in den allermeisten Fällen aus; zuvor bestehendes Stottern vergeht beim "Erwerb" der Taubheit.

...

-----------------

Der vollständige Inhalt dieses Beitrages ist ab jetzt nur noch unter http://www.stottern-verstehen.de verfügbar.
Zuletzt geändert von paul.dest am 4. Dezember 2016 10:58, insgesamt 1-mal geändert.
http://stottern-verstehen.de

Benutzeravatar
Torsten
nicht mehr wegzudenken
nicht mehr wegzudenken
Beiträge: 1005
Registriert: 9. Februar 2011 17:47
Ort: Salzwedel
BVSS-Mitglied: ja

Re: Stottern und auditorisches Feedback

Beitrag von Torsten » 2. Mai 2013 11:36

Hallo Paul,
es geht mir nicht um 500 Seiten - ich bin einfach grundsätzlich skeptisch gegenüber einem Modell, dass das Gehirn als eine Art Computer betrachtet, mit abgechlossene Modulen und Datentransfair. Das Sprachproduktionsmodell, das ich für das derzeit beste halte, ist das von Günter Kochendörfer (insgesamt ungefähr 1000 Seiten), siehe cortical linguistics. Die Stärke von Kochendörfers Theorie ist, dass sie, obwohl sie mit Computersimulationen arbeitet, sich streng an den biologischen Möglichkeiten des Gehirns orientiert. Kochendörfer schreibt:

  • Sprachproduktionsmodelle

    Die traditionell an psycholinguistischen Experimenten orientierten Sprachproduktionsmodelle, klassisch Levelt (1989) und die "Implementierungen" von Roelofs (z. B. 1997), sollten eigentlich den biologischen Realitäten näher stehen. Das Problem ist aber, dass zur Kontrolle der Modelle nur ihr (äußeres) Verhalten - verglichen mit den experimentellen Daten - herangezogen wird, und die modellhaften Strukturen selbst nicht weiter an biologischen Realitäten gemessen werden. So kommt es, dass Eigenschaften von "Knoten" (die nicht Neuronen sind) in "netzförmigen" Strukturen verwendet werden, für die neuronale Äquivalente nicht gefunden werden können bzw. auch nicht gesucht werden.

    Konnektionismus

    Noch etwas deutlicher mit einem biologischen Outfit versehen treten konnektionistische Modelle sprachverarbeitender Prozesse auf. Die Bezeichnung als "künstliche neuronale Netze" verleitet, trotz des Attributs "künstlich", zur Vorstellung, dass hier wirklich biologische Grundlagen beachtet werden. Jeder Konnektionist, der seine Klassiker aufmerksam gelesen hat, weiß aber, dass es grundlegende Probleme gibt, den Schritt vom konnektionistischen Netz zur biologischen Realität zu tun. Die "künstlichen Neuronen" haben nur eine oberflächliche Ähnlichkeit mit ihren biologischen Vorbildern und man kann leicht zeigen, dass sie Eigenschaften haben, die der Biologie widersprechen. Auch die Gesamtstrukturen konnektionistischer Modelle haben mit Strukturen des Kortex wenig gemeinsam.

    Fazit

    Es sieht so aus, als würden Theorien, von denen man weiß, dass sie falsch sind, mangels Konkurrenz beibehalten und weiterentwickelt. Das kann auf Dauer keine gute Strategie sein. Wichtig wäre es, wenigstens nach Kriterien zu suchen, die einigermaßen haltbare Rahmenbedingungen abgeben könnten für akzeptierbare sprachwissenschaftliche Konstrukte.

    Es ist doch blauäugig, erst einmal komplizierte "mentalistische" bzw. "kognitive" Sprachtheorien aufzubauen, und dann erst nachzusehen (oder schließlich darauf zu verzichten, nachzusehen) ob das Gehirn, das als Sitz des sprachlichen Wissens und der Ort der ablaufenden sprachverarbeitenden Prozeduren durchaus akzeptiert wird, die konstruierten Annahmen überhaupt erlaubt. Die Ausrede, dass wir nicht wissen, wie das Gehirn wirklich funktioniert, ist fadenscheinig, solange man nicht einmal den Versuch macht, sich zu informieren.
(aus Allgemeine Informationen)
Gruß,

Torsten
www.stottertheorie.de

paul.dest
nicht mehr wegzudenken
nicht mehr wegzudenken
Beiträge: 1163
Registriert: 3. Mai 2010 22:36
Kontaktdaten:

Re: Stottern und auditorisches Feedback

Beitrag von paul.dest » 4. Mai 2013 13:20

Hallo Torsten,
Torsten hat geschrieben:ich bin einfach grundsätzlich skeptisch gegenüber einem Modell, dass das Gehirn als eine Art Computer betrachtet, mit abgechlossene Modulen und Datentransfair.
Das kannst Du gerne sein. Aber diese Deine Skepsis richtet sich nur vermeintlich gegen das Sprachproduktionsmodell von Levelt. Denn das beinhaltet weitgehend keine Implementierungen und betrachtet das Gehirn damit weder "als eine Art Computer" noch als etwas, was "sich streng an den biologischen Möglichkeiten des Gehirns orientiert". (Vergleich zum Verständnis: Die Angabe, es handele sich um ein durch einen Verbrennungsmotor angetriebenes Fahrzeug mit einer 5-Gang-Schaltung, sagt nichts darüber aus, ob der Motor ein Diesel oder ein Benziner ist, und ob die Gang-Schaltung eine manuelle oder Automatikschaltung ist.)

Und wenn Du den Kochendörfer aufmerksam liest - auch das von Dir gepastete Zitat - , wirst Du feststellen, dass sich seine Kritik nicht gegen das Sprachproduktionsmodell von Level an sich richtet, sondern gegen bestimmte Implementierungen davon - zum Beispiel diejenigen von Roelofs oder auch sogar diejenigen von Levelt selbst. Das Modell von Kochendörfer dagegen, die eher eine Implementierung darstellt, geht in vielen Punkten mit dem Modell von Levelt einher! Man könnte Kochendörfer als eine Implementierung von Levelts Modell sehen.

Wenn Du Dir die Stellen bei Kochendörfer, wo kritische Referenzen auf Levelt auftauchen, einzeln anschaust, wirst Du feststellen, dass Sie sich nicht auf "Levelt (1989)" - das Modell ohne Implementierungsaussage - beziehen, sondern auf "Levelt (2001)" oder pauschalisierend auf "Levelt-Schule", womit verschiedene Nicht-Kochendörfersche Implementationen des Modells gemeint sind. Die Implementierungen hast Du in diesem Thread jedoch nicht mal gestreift: wie käme man dann dazu, sie zu kritisieren?

...

-----------------

Der vollständige Inhalt dieses Beitrages ist ab jetzt nur noch unter http://www.stottern-verstehen.de verfügbar.
Zuletzt geändert von paul.dest am 4. Dezember 2016 11:00, insgesamt 1-mal geändert.
http://stottern-verstehen.de

Benutzeravatar
Torsten
nicht mehr wegzudenken
nicht mehr wegzudenken
Beiträge: 1005
Registriert: 9. Februar 2011 17:47
Ort: Salzwedel
BVSS-Mitglied: ja

Re: Stottern und auditorisches Feedback

Beitrag von Torsten » 4. Mai 2013 22:07

paul.dest hat geschrieben:Vergleich zum Verständnis: Die Angabe, es handele sich um ein durch einen Verbrennungsmotor angetriebenes Fahrzeug mit einer 5-Gang-Schaltung, sagt nichts darüber aus, ob der Motor ein Diesel oder ein Benziner ist, und ob die Gang-Schaltung eine manuelle oder Automatikschaltung ist.
Richtig. Nur, ich denke, dass es überhaupt kein Motor ist.
paul.dest hat geschrieben:Das Modell von Kochendörfer dagegen, die eher eine Implementierung darstellt, geht in vielen Punkten mit dem Modell von Levelt einher! Man könnte Kochendörfer als eine Implementierung von Levelts Modell sehen.
Wie meinst Du das? Kochendörfers Theorie ist, genau wie die von Levelt, eine umfassende Theorie der Sprachverarbeitung. Während Levelt mehr von psycholinguistischen empirischen Befunden ausgeht - also letztlich von Verhaltensbeobachtungen - und davon, dass das Gehirn eine Art Computer ist, geht Kochendörfer von den Möglichkeiten der Neuronen und Synapsen aus.
paul.dest hat geschrieben:Die Implementierungen hast Du in diesem Thread jedoch nicht mal gestreift: wie käme man dann dazu, sie zu kritisieren?
Ich kritisiere keine Implementierungen, sondern die Grundstruktur von Levelts Theorie: Die Module (d.h. die Annahme, dass überhaupt Module eine Rolle spielen) und die Annahme von Datenübertragung (z.B. eines "phonologischen/artikulatorischen Plans" von Formulator zum Artikulator) Das ist es auch, was Kochendörfer meint, wenn er schreibt, dass "die modellhaften Strukturen selbst nicht weiter an biologischen Realitäten gemessen werden."
paul.dest hat geschrieben:Eines verstehe ich jedoch nach wie vor nicht. Das Modell - eher die Implementierung - von Kochendörfer steht Deiner Theorie genauso entgegen.
Wieso? 8)

Gruß,
Torsten
www.stottertheorie.de

Benutzeravatar
Torsten
nicht mehr wegzudenken
nicht mehr wegzudenken
Beiträge: 1005
Registriert: 9. Februar 2011 17:47
Ort: Salzwedel
BVSS-Mitglied: ja

Re: Stottern und auditorisches Feedback

Beitrag von Torsten » 24. August 2013 11:35

Hallo,

Anne Foundas, Edward Conture und Mitarbeiter haben eine Studie über das SpeechEasy (eine elektronische Sprechhilfe, die das Stottern vermindert) veröffentlicht:

Foundas, A. L., Mock, J. R., Corey, D. M., Golob, E. J., & Conture, E. G. (2013) The SpeechEasy device in stuttering and nonstuttering adults: Fluency effects while speaking and reading. Brain & Language, 126, 141–150.

auf deutsch etwa:

Das SpeechEasy-Gerät bei stotternden und nicht stotternden Erwachsenen: Wirkungen auf den Sprachfluss während des Sprechens und Lesens.

Ich berichte darüber, weil die Resultate m.E. Rückschlüsse auf die Rolle der auditiven Rückmeldung – des Hörens der eigenen Sprache während des Sprechens – zulassen. Was wurde gemacht?

An der Studie nahmen 24 Männer im Alter von 20 bis 46 teil, davon 14 Stotterer. Jedem Teilnehmer wurde ein SpeechEasy-Gerät in den Gehörgang eingepasst, nachdem das Gerät über eine Computer-Schnittstelle eingestellt wurde. Es lassen sich drei Variablen einstellen: Verzögerung (die eigene Stimme wird verzögert gehört), Frequenzveränderung (die eigene Stimme wird höher oder tiefer gehört) und Lautstärke. Durch den Hersteller ist das Gerät voreingestellt, und zwar

Verzögerung: 60 ms
Frequenzänderung: +500 Hz
Lautstärke: 2 dB Verstärkung

Diese Standardeinstellung bewirkt also, dass die eigene Stimme merklich verzögert, höher und etwas lauter gehört wird. Die Versuchsteilnehmer hatten keine Erfahrung mit dem SpeechEasy und bekamen keine spezielle Anleitung. In der Gebrauchsanweisung zum SpeechEasy wird den Benutzern empfohlen, beim Sprechen die Aufmerksamkeit auf die verzögerte Rückmeldung zu richten (und nicht auf die natürliche, die sie mit dem anderen Ohr hören), und bewusst gedehnt zu sprechen. Diese Empfehlungen wurden den Versuchspersonen verschwiegen, um die Wirkung messen zu können, die unmittelbar vom Gerät selbst ausgeht.

Die folgenden vier Bedingungen wurden miteinander verglichen:
  • Basisbedingung: ohne SpeechEasy.
  • Versuchsbedingung 1: SpeechEasy im Ohr, aber ohne Verzögerung und ohne Frequenzänderung; die Versuchspersonen hörten ihre Stimme also nur etwas lauter und „direkter“.
  • Versuchsbedingung 2: SpeechEasy im Ohr mit Standardeinstellung.
  • Versuchsbedingung 3: SpeechEasy im Ohr mit individuell optimaler Einstellung, so dass das Stottern maximal reduziert war. Bei den Nichtstotterern wurden die maximale Verzögerung (220 ms), eine Frequenzänderung von +500 Hz und eine individuell angenehme Lautstärke eingestellt.

Unter diesen vier Bedingungen führten die Teilnehmer drei Sprechaufgaben aus, unter den drei Versuchsbedingungen je 2 mal – mit dem SpeechEasy im rechten und im linken Ohr:
  • Lesen: Vorlesen eines 300 Silben langen Textes.
  • Monolog: Erzählen einer Geschichte nach einem Bilderbuch.
  • Konversation: Beantworten von Fragen des Versuchsleiters (z.B. über Hobbies).
Das Sprechen wurde aufgenommen und die Stotterereignisse – Laut- und Silbenwiederholungen, Wiederholungen einsilbiger Wörter und Lautdehnungen – innerhalb der ersten 300 Silben bei jeder Aufgabe gezählt.

Resultate:

Das Diagramm Abb. 1 zeigt die Wirkung des SpeechEasy unter den drei Versuchsbedingungen. Dargestellt ist die Differenz der Stotterrate (Stotterereignisse pro 100 Silben) zur Basisbedingung (Rate in Versuchsbedingung minus Rate in Basisbedingung).

Ein statistisch signifikanter Unterschied bestand nur zwischen Bedingung 1 und Bedingung 3, jedoch nicht zwischen Bedingung 1 und 2 oder zwischen Bedingung 2 und 3. Man sieht: Allein dadurch, dass das Gerät im Ohr war und die eigene Sprache etwas lauter und „direkter“ gehört wurde (Condition 1), verminderte sich das Stottern beträchtlich. Die zusätzliche Reduktion des Stotterns durch Verzögerung und Frequenzveränderung war dagegen – im Gruppendurchschnitt – relativ bescheiden. Die Autoren schreiben dazu:
  • „Interessanterweise war in der vorliegenden Studie für einige Stotterer der Grad der erhöhten Sprechflüssigkeit unter der Kontroll- im Vergleich zur Basisbedingung sehr ähnlich der unter den Bedingungen mit veränderter Rückmeldung. Also könnte die Rückmeldungsveränderung als solche nicht allein für manche der beobachteten Behandlungseffekte verantwortlich sein.“ (148)
Aber was ist dann verantwortlich? Die Autoren stellen eine Reihe Vermutungen an. Aber auf die simple Möglichkeit, dass durch das SpeechEasy die Aufmerksamkeit auf das Hören der eigenen Sprache gelenkt wird – auch schon ohne Verzögerung und Frequenzänderung – und dass durch Verzögerung und Frequenzänderung dieser Effekt nur verstärkt wird, darauf kommen sie nicht.

Es wäre doch ziemlich unplausibel, anzunehmen, dass die relativ geringe zusätzliche Stotterreduktion unter Bedingung 2 und 3 durch etwas anderes verursacht wird als die weitaus größere Reduktion unter Bedingung 1.

Beim Vergleich zwischen den Sprechaufgaben zeigte sich, dass die Reduktion des Stotterns durch das SpeechEasy beim Lesen am größten, beim monologischen Erzählen etwas geringer und während der Konversation (im Gruppendurchschnitt und wenn man die Werte für rechts und links zusammennimmt) fast Null war. Leider habe ich nicht herausbekommen, ob die Werte für Bedingung 3 (individuelle Einstellung des Gerätes) oder die Durchschnittswerte der Bedingungen 1 – 3 verwendet wurden - das ist aber auch nicht so wichtig.

Auch diese unterschiedliche Wirksamkeit des SpeechEasy in den verschiedenen Sprechsituationen lässt sich leicht erklären, wenn man den Faktor Aufmerksamkeit berücksichtigt – und diesmal tun es die Autoren:
  • „ ... beim Lesen kann der Einzelne seine kognitiven, sprachlichen und sozialen Ressourcen mehr auf seine eigene Produktion fokussieren, und das mag ihm größere Möglichkeiten geben, auf Veränderungen in der Rückmeldung seiner Produktion zu achten. Diese ungeteilte Aufmerksamkeit […] mag erklären helfen, warum das SpeechEasy-Gerät beim Vorlesen wirkungsvoller als unter anderen Sprechbedingungen ist.“ (148)
Mein Fazit: Das SpeechEasy wirkt dadurch, dass es die Aufmerkdamkeit während des Sprechens auf das Hören der eigenen Sprache lenkt. Das tut es bereits, ohne dass eine Rückmeldeverzögerung oder Frequenzveränderung eingestellt ist - allein dadurch, dass man die eigene Stimme in einem Ohr etwas lauter und "direkter" hört. Durch Rückmeldeverzögerung und Frequenzveränderung (DAF und FAF) wird dieser Effekt nur verstärkt. Man kann auf das Gerät aber auch verzichten und sich angewöhnen, beim Sprechen auf seine Sprache zu hören.

Torsten
www.stottertheorie.de

paul.dest
nicht mehr wegzudenken
nicht mehr wegzudenken
Beiträge: 1163
Registriert: 3. Mai 2010 22:36
Kontaktdaten:

Re: Stottern und auditorisches Feedback

Beitrag von paul.dest » 26. August 2013 14:28

Hallo Torsten,

Danke für diesen interessanten Studien-Bericht.

Das von Dir aus den Studienergebnissen gezogene Fazit
Torsten hat geschrieben:Mein Fazit: Das SpeechEasy wirkt dadurch, dass es die Aufmerkdamkeit während des Sprechens auf das Hören der eigenen Sprache lenkt. Das tut es bereits, ohne dass eine Rückmeldeverzögerung oder Frequenzveränderung eingestellt ist - allein dadurch, dass man die eigene Stimme in einem Ohr etwas lauter und "direkter" hört.
ist jedoch falsch, denn es geht von einer Fehlannahme aus,
nämlich von der unvorsichtigen Gleichsetzung von
Torsten hat geschrieben:ohne dass eine Rückmeldeverzögerung oder Frequenzveränderung [am SpeechEasy-Gerät] eingestellt ist
und
Torsten hat geschrieben:allein dadurch, dass man die eigene Stimme in einem Ohr etwas lauter und "direkter" hört.
...

-----------------

Der vollständige Inhalt dieses Beitrages ist ab jetzt nur noch unter http://www.stottern-verstehen.de verfügbar.
Zuletzt geändert von paul.dest am 4. Dezember 2016 11:04, insgesamt 2-mal geändert.
http://stottern-verstehen.de

Benutzeravatar
Torsten
nicht mehr wegzudenken
nicht mehr wegzudenken
Beiträge: 1005
Registriert: 9. Februar 2011 17:47
Ort: Salzwedel
BVSS-Mitglied: ja

Re: Stottern und auditorisches Feedback

Beitrag von Torsten » 26. August 2013 18:05

Hallo Paul,

alles, was Du schreibst, ist völlig korrekt. Wir hatten diese Diskussion übrigens schon mal (hier – dein Beitrag vom 26.11.2011). Es kann durchaus sein, dass das Gerät, obwohl die Verzögerung auf Null gestellt ist, eine gewisse Rückmeldeverzögerung bewirkt; 40 ms wäre allerdings unterhalb der Wahrnehmungsschwelle. Aber die natürliche auditive Rückmeldung, besonders die über die Luft, ist auch geringfügig verzögert – besonders in Innenräumen, in denen der Schall von den Wänden reflektiert wird: Bei einem Abstand des Sprechers zur Wand von 3,50 m wäre die Verzögerung 20 ms, bei einem größeren Abstand entsprechend mehr (Schallgeschwindigkeit ca. 350 m/s). Spannende Frage: Führt das Sprechen in großen Räumen zu einer deutlichen Verminderung des Stotterns?

In der SHG in Magdeburg haben wir 2011 einfache Versuche mit unveränderter auditiver Rückmeldung durchgeführt. Ich habe darüber schon mal geschrieben und zitiere hier einfach aus meinem damaligen Beitrag vom 10.10.2011:
  • „Man braucht ein Mikrophon, Kopfhörer und irgendeinen Verstärker, mit dem man die Lautstärke einstellen kann. Bei zwei SHG-Mitgliedern, die mittelmäßig bzw. stark stottern, war mit NAF (non-altered = unverändertes auditives Feedback) eine deutliche Verbesserung zu bemerken. Bei zwei anderen, die unter Normalbedingungen kaum Symptome haben, war (trivialerweise) nach außen keine deutliche Wirkung bemerkbar – doch da ich selber einer von diesen beiden bin, kann ich sagen, dass das lautere und direktere Hören meiner Stimme für mich sehr angenehm war, und dass ich mich beim Sprechen viel sicherer gefühlt habe."
Auch bei dieser simplen analogen Technik ist vermutlich eine gewisse Verzögerung aufgetreten, die wir aber subjektiv nicht wahrgenommen haben – im Gegenteil: Die subjektive Wahrnehmung war – nicht nur bei mir – eher die, sich „schneller“ zu hören.

Gruß, Torsten
www.stottertheorie.de

paul.dest
nicht mehr wegzudenken
nicht mehr wegzudenken
Beiträge: 1163
Registriert: 3. Mai 2010 22:36
Kontaktdaten:

Re: Stottern und auditorisches Feedback

Beitrag von paul.dest » 26. August 2013 21:46

Hallo Torsten,

Ja, an unsere frühere Diskussion erinnere ich mich.
Torsten hat geschrieben:40 ms wäre allerdings unterhalb der Wahrnehmungsschwelle.
Ist es nicht. 40ms ist schon deutlich bemerkbar. Für Leute, die den Vergleich nicht kennen oder keinen Vergleich haben, mögen 20ms unterhalb der "Erkennungsschwelle" liegen, aber im direkten Vergleich "unverzögert vs. 20ms" merkt jeder normal hörende Mensch den Unterschied. Wenn man geübt ist, kann man sich damit sogar blind orientieren: siehe die fünfteilige Dokumentation "Extraordinary People - The boy who sees without eyes" über einen blinden Jungen, der durch Klick-Geräusche-Echolokation sich weitgehend wie ein Sehender orientieren konnte.

Doch eigentlich kommt es gar nicht darauf an, ob die Verzögerung unterhalb der Wahrnehmungsschwelle des Sprechers liegt oder nicht. Entscheidend ist lediglich, ob diese Verzögerung den Sprechapparat beeinflusst. Und das tut sie eindeutig: merke ich jedes Mal mit einem bestimmten Headset in den telefonischen Meetings, die ich regelmäßig abhalten muss.
Torsten hat geschrieben:Aber die natürliche auditive Rückmeldung, besonders die über die Luft, ist auch geringfügig verzögert – besonders in Innenräumen, in denen der Schall von den Wänden reflektiert wird: Bei einem Abstand des Sprechers zur Wand von 3,50 m wäre die Verzögerung 20 ms, bei einem größeren Abstand entsprechend mehr (Schallgeschwindigkeit ca. 350 m/s). Spannende Frage: Führt das Sprechen in großen Räumen zu einer deutlichen Verminderung des Stotterns?
Ja, tut es, sofern genügend Schall zurück zum Sprecher reflektiert wird.

...

-----------------

Der vollständige Inhalt dieses Beitrages ist ab jetzt nur noch unter http://www.stottern-verstehen.de verfügbar.
Zuletzt geändert von paul.dest am 4. Dezember 2016 11:05, insgesamt 1-mal geändert.
http://stottern-verstehen.de

Benutzeravatar
Torsten
nicht mehr wegzudenken
nicht mehr wegzudenken
Beiträge: 1005
Registriert: 9. Februar 2011 17:47
Ort: Salzwedel
BVSS-Mitglied: ja

Re: Stottern und auditorisches Feedback

Beitrag von Torsten » 27. August 2013 19:11

Hallo Paul,

Wenn ich einer Audio-Aufnahme ein Echo von bis zu 40 ms zufüge, dann nehme ich das als Hall wahr. Einen richtigen Echo-Effekt, also eine merkbare Verzögerung, nehme ich erst bei ca. 50 ms wahr. Ich frage mich also, ob man ein DAF unterhalb dieser Marke tatsächlich als Verzögerung wahrnimmt.

Aber gut – nehmen wir an, das SpeechEasy hat unter Bedingung 1 eine leichte Verzögerung, und nehmen wir an, sie wird irgendwie wahrgenommen. Was hieße das? Ich behaupte ja zunächst mal, dass das SpeechEasy unter Bedingung 1 – 3 auf dieselbe Weise wirkt, und das könnte, wenn auch unter Bedingung 1 eine Verzögerung auftritt erst recht der Fall sein. Nun kannst Du natürlich behaupten, dass die Verzögerung auf andere Weise wirkt als dadurch, dass sie die Aufmerksamkeit auf das Hören der eigenen Sprache zieht. Nur: Auf welche? Schließlich ist es die eigene Sprache, die verzögert zurückgespielt wird.

Bedenke außerdem, wie Hall und Echo sonst auf uns wirken: Die „gute Akustik“ z.B. in einer großen Kirche empfindet man als faszinierend, man lauscht unwillkürlich auf den veränderten Klang der eigenen Stimme – ähnlich in einem Hochwald oder Gebirge. Diese Phänomene ziehen die Aufmerksamkeit auf den akustischen Reiz, sie bewirken, dass wir hinhören. Und wie wirkt sich das auf das Sprechen aus? Ich vermute, dass man unter solchen Bedingungen eher weniger als mehr stottert.

Gruß, Torsten
www.stottertheorie.de

Antworten

Wer ist online?

Mitglieder in diesem Forum: 0 Mitglieder und 1 Gast