Was ist linguistische Evidenz? : Kolloquium des Zentrums Sprachenvielfalt und Mehrsprachigkeit, November 2006

Bok av Claudia M Riehl
Ziel des Kolloquiums "Was ist linguistische Evidenz?" war es, Vertreter verschiedener linguistischer Disziplinen zusammenzubringen und die oben genannten Fragestellungen zu diskutieren. Aus den Vorträgen des Kolloquiums wurden in diesem Band Beiträge zusammengestellt, die sich mit zentralen Facetten der Evidenzdiskussion befassen.Im ersten Beitrag von Leila Behrens geht es um eine grundsätzliche Diskussion der linguistischen Evidenz. Sie zeigt auf, wie stark die Evidenz von der zugrunde liegenden Theorie abhängig ist und kommentiert dies anhand eines Beispiels zur Markierung von Aspektualität. Behrens fordert die Etablierung von methodologischen Standards, die cross-linguistisch und disziplinenübergreifend eingesetzt werden können.In den beiden folgenden Artikeln werden psycholinguistische Vorgehensweisen vorgestellt und diskutiert, die durch experimentell erworbene Daten Evidenzen für kognitive Prozesse der Sprachverarbeitung liefern: Der Beitrag von Stefan Baumann diskutiert die Möglichkeit des Einsatzes von Priming-Experimenten und exemplifiziert diese anhand der prosodischen Markierung von Information unterschiedlicher Gegebenheitsgrade. Andrea Weber stellt die Vorteile von Eye-Tracking-Experimenten dar und zeigt davon ausgehend die Evidenz für die Verarbeitung von Verstehensprozessen auf.In einem weiteren Beitrag wird die Problematik von Daten für die Theoriebildung im Bereich grammatischer Strukturen aufgegriffen. Sam Featherston zeigt anhand der Methode der Magnitude Estimation, wie man mit Grammatikalitätsurteilen zu einer zuverlässigen Datengrundlage kommen kann: Es werden nicht nur die Urteile einer breiten Zahl von Sprechern eingeholt, sondern darüber hinaus auch abgestufte Urteile (nach dem sog. Thermometerverfahren) erfasst. Featherston erläutert diese Methode und ihre Validität anhand von Urteilen zu wh- Phrasen.Der folgende Artikel von Jürgen Rolshoven und Stephan Schwiebert beschäftigt sich mit der Problematik von künstlich erstellten Daten mithilfe von Computersimulationen. Im Mittelpunkt steht dabei die Corpusrecherche und Dateninterpretation mit Hilfe von Alignment-Strategien, die ebenfalls Evidenzen liefern können. Dieser Beitrag zeigt auf, wie der Typus von Annotation auch die Dateninterpretation beeinflussen kann.Der abschließende Aufsatz von Dany Adone setzt sich mit der Elizitierung authentischer Daten auseinander. Sie diskutiert besonders die Problematik der Datengewinnung in schriftfernen und dem Explorator fremden Kulturen und erläutert hier die kulturell bedingten Schwierigkeiten bei der Datenelizitation (die zu einer Beschränkung von Corpora führen können). Sie wirft dabei die Problematik des kompetenten Sprechers auf: In vielen multilingualen Gemeinschaften, in denen die autochthone Sprache nur noch eine marginale Rolle spielt (z.B. bei den Aborigines in Australien) gibt es viele sog. semi-speaker, die eine hohe Variation von sprachlichen Strukturen in ihren Äußerungen aufweisen. Diese Tatsache erschwert die Beschreibung des grammatischen Systems erheblich.