Text from: Das Menzerathsche Gesetz in informationsverarbeitenden Systemen.
By: Gabriel Altmann and Michael Schwibbe
Kapitel 7 - DAS MENZERATHSCHE GESTZ ALS RESULTAT DES SPRACHVERARBRITUNGSMECHANISMUS
- R. Köhler -
Die
im Menzerathschen Gesetz miteinander verknüpften Begriffe beziehen sich
auf bestimmte beobachtbare Eigenschaften (Länge) linguistischer
Einheiten (Sätze, Clauses, Wörter, Morpheme, Phoneme); Interpretationen
des Gesetzes könnten daher aus allen Modellen (Strukturen und Prozessen)
gewonnen werden, die entsprechende Eigenschaften und Einheiten
enthalten. Im vorliegenden Beitrag soll nun versucht werden, das
Menzerathsche Gesetz mit Hilfe eines Sprachverarbeitungsmodells zu
begründen.
Dazu gehen wir von folgender Annahme aus: Die
menschliche Sprachverarbeitung ist ein sequenzieller Prozeß; d.h. die
Ketten der sprachlichen Komponenten werden stets gliedweise in linearer
Folge verarbeitet. Diese Aussage bezieht sich auf Analyse und Synthese
gleichermaßen und soll zumindest für eine angenommene höchste Ebene von
Konstrukten gelten. Ob es sich hierbei um die Ebene der Teilsätze, der
Sätze oder eine noch höhere handelt, lassen wir zunächst offen. Ebenso
soll über die Art der Verarbeitung von Einheiten auf tieferen Ebenen,
insbesondere über die Auswertung der semantischen Information, hier
keine Aussage gemacht werden.
Weiter nehmen wir an, daß für den
Sprachverarbeitungsprozeß ein Register fester endlicher Größe als
"Arbeitsspeicher" zur Verfügung steht; seine Kapazität entspricht der
Speicheranforderung für ein Konstrukt der maximalen Größenordnung. Es
ist möglich, daß dieses angenommene Register in einer bestimmten
Beziehung zum Kurzzeitgedächtnis steht oder sogar mit diesem
identifiziert werden kann. Entsprechende Experimente (vgl. BREDENKAMP,
WIPPICH 1977: 120-134) scheinen eine solche Annahme zu stützen: auch für
den Bereich der Sprachverarbeitung gibt es eine feste Obergrenze für
Einheiten ("chunks"), die behalten werden können. Diese spezielle
Hypothese ist jedoch in unserem Zusammenhang nicht nötig und soll hier
auch nicht vertreten werden, zumal nicht alle Psychologen von der
Existenz einer solcher Instanz ausgehen.
Ein solches Register hat
zwei Aufgaben: Die erste besteht darin, die zu bearbeitende Komponente
präsent zu halten, solange dies notwendig ist (d.h. bis die Analyse bzw.
Synthese vollständig ist), die zweite darin, die erforderliche
Strukturinformation zu speichern, die aus den Angaben über die
Verknüpfungen der aktuellen Komponente mit anderen Komponenten und die
jeweilige Verknüpfungsart besteht. Nehmen wir Sätze als unmittelbare
Komponenten einer Texteinheit (Konstrukt) an, so bilden die
transphrastischen Bezüge den Gegenstand der Strukturinformation, während
die Komponente (der Satz) in Form einer Kette aus Teilsätzen
gespeichert ist. In Abbildung 7.1 ist diese Aufteilung schematisch
dargestellt. Nun bringt jeder Teilsatz (allgemein: jedes Glied der
Kette) wiederum die Notwendigkeit mit sich, einerseits seine Elemente
(hier die Wörter), andererseits Strukturinformation (über die Bezüge der
Teilsätze untereinander) zu speichern usw. bis zur Phonemebene.
Abb. 7.1. Das Sprachverarbeitungsregister
A = Komponente , B = Strukturinformation
Das
hier beschriebene hierarchische Organisationsprinzip hat zur Folge, daß
die Strukturinformation jeweils zusammen mit der zugehörigen
Ausdruckskette zu speichern ist. Dies ist der Grund dafür, nicht mehrere
spezialisierte Register für die verschiedenen Informationstypen zu
postulieren, sondern ein allgemeines Sprachverarbeitungsregister
anzusetzen; für diese Entscheidung sprechen auch die Resultate von
SELVIN und PERCHONOK (1975).
Aus diesem Prinzip und der Kapazitätsbegrenzung des Registers lassen sich zwei Schlußfolgerungen ziehen:
1. Es gibt auf jeder Ebene eine Obergrenze für die Länge von Ketten;
2.
Je mehr Komponenten ein Konstrukt hat, desto mehr Strukturinformation
wird kumuliert; daher steht umso weniger Kapazität für die Komponenten
selbst zur Verfügung.
Aber auch die Zunahme der
Strukturinformation ist nicht unbegrenzt, da Anzahl und Typ der
Verknüpfungen von Komponenten untereinander bestimmten Einschränkungen
unterliegen. Eine Begrenzung liegt darin, daß eine Komponente um so
weniger Anknüpfungspunkte bietet, je kürzer (weniger komplex) sie ist;
darüber hinaus existieren (semo-/lexo-/syn-/morpho-/phonotaktische)
Verknüpfungsrestriktionen. So nimmt beispielsweise mit wachsender
Morphemzahl eines Wortes die Anzahl der Modifikationsmöglichkeiten durch
Hinzufügen weiterer Morpheme ab. Je mehr Komponenten ein Konstrukt also
enthält, desto geringer ist auch die hinzukommende Strukturinformation
bei Verknüpfung mit einem zusätzlichen Element, d.h. um so weniger
zusätzliche Registerkapazität wird für sie benötigt. Daher liegt
folgende Vermutung nahe:
Der Zuwachs an für Strukturinformation
benötigter Registerkapazität, die während der Bearbeitung einer
Komponente verfügbar gehalten werden muß, ist umgekehrt proportional zu
der Anzahl der Komponenten. Bezeichnen wir diesen Zuwachs an
Kapazitätsbedarf mit K und die Anzahl der Komponenten des Konstrukts mit
x, so gilt
K' = B/x (7.1)
Da der Zuwachs an
Strukturinformation wegen der angenommenen Kapazitätsbeschränkung des
Registers gleichermaßen die Abnahme der für die Komponente selbst zur
Verfügung stehenden Kapazität bedeutet, können wir (7.1) auch
folgendermaßen schreiben:
y'/y = -B/x (7.2)
wo y für die
Länge der Komponenten steht. Dies entspricht dem
Differentialgleichungsansatz von ALTMANN (1980): Die Kürzungsrate für
die Komponenten eines sprachlichen Konstrukts ist umgekehrt proportional
zur Länge des Konstrukts.
Außer der Ableitung der
Differentialgleichung (7.2) ermöglicht das vorgestellte Modell die
direkte Interpretation der Parameter der Lösung
y = Ax^b , b < 0 (7.3)
Offensichtlich
steht A für die durchschnittliche Länge eines Konstrukts, das aus einer
einzigen Komponente besteht (vgl. KOHLER 1982); die numerische Größe
von A ist sprach- und textspezifisch. Der Parameter b, der die Steilheit
der Kürzung bezeichnet, läßt sich nun unmittelbar aus (7.1) ableiten:
er ist ein Maß für den Umfang an Strukturinformation, der
durchschnittlich für ein einkomponentiges Konstrukt erforderlich ist.
Setzt man nämlich für x die Zahl 1 ein, so ergibt sich für den
entsprechenden Informationszuwachs gerade B. Aus dem Modell ergeben sich
diesbezüglich zwei Konsequenzen:
1. Wegen des unterschiedlichen
Umfangs an notwendiger Strukturinformation muß b sowohl sprachtypisch
sein als auch von der linguistischen Analyseebene abhängen;
2. Aus
den oben dargestellten Annahmen folgt ein Iinearer Zusammenhang zwischen
A und b, wenigstens für Konstrukte der maximalen Größenordnung in dem
Idealfall, wo die Komponente zusammen mit der entsprechenden
Strukturinformation die Registerkapazität vollständig beansprucht.
Die
zweite Konsequenz könnte sich insofern als wichtig erweisen, als sie
eine leicht zu testende Hypothese darstellt, mit der das Modell einer
direkten empirischen Überprüfung unterzogen werden kann. Da die Länge
der Komponente und der Umfang der Strukturinformation nicht mit dem
gleichen Maß gemessen werden können, müssen wir einen
Proportionalitätsfaktor k einführen. Demnach Ist
A + kb <= R , (7.4)
wobei
R für die Größe des Registers steht. Bei empirischen Untersuchungen muß
wohl mit beträchtlichen Abweichungen von der Geraden A+kb=R gerechnet
werden, da diese Gleichung nur für das maximal ausgenutzte Register
gilt. Dennoch sollten sich die empirischen Punkte mit den Koordinaten Ai
und bi aus genügend Textuntersuchungen signifikant nach einer
entsprechenden Regressionsgeraden ausrichten. Nach den obigen
Überlegungen ist zu erwarten, daß solche Tests
1. zu sprach- und ebenentypischen Ergebnissen führen;
2. um so geringere Streuungen zeigen werden, je näher die untersuchte Ebene der maximalen Größenordnung von Komponenten kommt.
Eine
mögliche Erweiterung des hier beschriebenen Modells besteht in der
Einbeziehung der lexikalischen Information. Es erscheint plausibel,
davon auszugehen, daß Verweise auf die jeweiligen lexikalischen
Bedeutungen einer Komponente unmittelbar zusammen mit der Komponente im
Register gehalten werden. Trifft diese Annahme zu, so gelten die oben
dargestellten Überlegungen analog. Die Kapazitätsbeschränkung des
Sprachverarbeitungsregisters erzwingt eine Optimierung der Verteilung
der Bedeutungszshlen in Bezug auf die Länge der Komponenten. Unter
funktionalanalytischem Gesichtspunkt ist eine solche optimale Verteilung
als Systembedürfnis aufzufassen, die den Selbstregulationsprozeß der
Sprache (vgl. ALTMANN 1981; KOHLER, ALTMANN 1983) beeinflußt. Das
Ergebnis ist ein Kompromiß konkurrierender Systembedürfnisse; er schlägt
sich als Ausdruck eines Fließgleichgewichts des sprachlichen Systems im
Lexikon nieder. In ALTMANN, BEOTHY, BEST (1982) und ROTHE (1983) wird
gezeigt, daß die Bedeutungszahl von der Länge ebenfalls gemäß (7.3)
abhängt; die Modellerweiterung kann analog zu oben mit (7.4) überprüft
werden.
Bisher haben wir uns auf den hyperbolischen Anteil des
Originalansatzes beschränkt; die ursprüngliche Gesetzeshypothese läßt
sich In zwei Aspekte aufspalten. Der eine bezieht sich auf die hier
betrachtete Repräsentation sprachlicher Zeichen und ihre Verarbeitung,
der zweite auf Erscheinungen im Zusammenhang mit der Produktion bzw. der
Wahrnehmung gesprochener bzw. geschriebener Sprache. Dabei geht es um
Wahrnehmungsschwellen für die Länge von Komponenten, die in
Übereinstimmung mit dem Weber-Fechnerschen Gesetz in Form von konstanten
Veränderungräten beschrieben werden können:
y'/y = -c y=Ae^(-cx) .
Für
Beobachtungen, bei denen beide Aspekte eine Rolle spielen, ist zu
erwarten, daß die beiden Funktionen zusammengesetzt werden müssen, um
die Daten zu beschreiben:
y = Ax^b e^(-cx) ,
was der allgemeinen Lösung des Altmannschen Differentialgleichungsansatzes entspricht.
Nenhum comentário:
Postar um comentário