2024-03-29T11:29:28Zhttps://publikationen.sulb.uni-saarland.de/oai/requestoai:publikationen.sulb.uni-saarland.de:20.500.11880/227612019-01-10T07:43:21Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:doctoralThesisdoc-type:ResearchDataciminterface:dnbddc:620
Hybrid approaches for sentiment analysis
Hybridansätze für die Sentimentanalyse
Wiegand, Michael
Klakow, Dietrich
ddc:400
Computerlinguistik
Maschinelles Lernen
sentiment analysis
computational linguistics
text classification
information extraction
machine learning
Sentiment Analysis is the task of extracting and classifying opinionated content in natural language texts. Common subtasks are the distinction between opinionated and factual texts, the classification of polarity in opinionated texts, and the extraction of the participating entities of an opinion(-event), i.e. the source from which an opinion emanates and the target towards which it is directed. With the emerging Web 2.0 which describes the shift towards a highly user-interactive communication medium, the amount of subjective content on the World Wide Web is steadily increasing. Thus, there is a growing need for automatically processing this type of content which is provided by sentiment analysis. Both natural language processing, which is the task of providing computational methods for the analysis and representation of natural language, and machine learning, which is the task of building task-specific classification models on the basis of empirical data, may be instrumental in mastering the challenges of the automatic sentiment analysis of written text. Many problems in sentiment analysis have been proposed to be solved with machine learning methods exclusively using a fairly low-level feature design, such as bag of words, containing little linguistic information. In this thesis, we examine the effectiveness of linguistic features in various subtasks of sentiment analysis. Thus, we heavily draw from the insights gained by natural language processing. The application of linguistic features can be applied on various classification methods, be it in rule-based classification, where the linguistic features are directly encoded as a classifier, in supervised machine learning, where these features complement basic low-level features, or in bootstrapping methods, where these features form a rule-based classifier generating a labeled training set from which a supervised classifier can be trained. In this thesis, we will in particular focus on scenarios where the combination of linguistic features and machine learning methods is effective. We will look at common text classification tasks, both coarse-grained and fine-grained, and extraction tasks.
Sentimentanalyse beschreibt die Aufgabe, Meinungen aus natürlich-sprachlichem Text zu extrahieren bzw. deren Inhalt zu klassifizieren. Übliche Teilaufgaben sind die Unterscheidung zwischen sachbezogenem Text und Meinung, die Klassifikation von Polarität (einer Meinung), sowie die Extraktion von Entitäten, die an einer Meinung beteiligt sind, d.h. der Ursprung, von dem eine Meinung ausgeht, und das Ziel, auf das sich eine Meinung richtet. Mit dem Aufkommen des Web 2.0, das den Übergang des Internets zu einem hochgradig interaktiven Kommunikationsmedium beschreibt, ist parallel auch der Anteil an subjektiven Inhalten im Netz gestiegen. Dadurch wächst logischerweise auch der Bedarf an automatischen Verfahren, die die Aufgaben der Sentimentanalyse unterstützen. Bei der Bewältigung der automatischen Sentimentanalyse geschriebener Sprache sind sowohl die natürliche Sprachverarbeitung, die berechenbare Modelle für die Analyse und Repräsentation natürlicher Sprache bereitstellt, als auch maschinelle Lernverfahren, die aufgabenspezifische Klassifikationsmodelle auf der Basis von empirischen Daten liefern, hilfreich. Viele Probleme in der Sentimentanalyse können mit Standardmethoden aus dem maschinellen Lernen, die sich hauptsächlich auf elementares Merkmalsdesign stützen (wie z.B. Bag of Words, die nur sehr begrenzt linguistische Information kodieren), gelöst werden. In dieser Dissertation soll die Nutzbarkeit von linguistischen Merkmalen in unterschiedlichen Teilaufgaben in der Sentimentanalyse untersucht werden. Hierbei stützen wir uns vorwiegend auf Erkenntnisse der natürlichen Sprachverarbeitung. Linguistische Merkmale können in den unterschiedlichsten Klassifikationsmethoden Anwendung finden, sei es in rein regelbasierten Klassifikationsverfahren, bei denen die Merkmale direkt als Klassifikator kodiert werden, in überwachten Lernverfahren, bei denen diese Merkmale Standardmerkmale (z.B. Bag of Words) ergänzen, oder aber auch in Bootstrappingverfahren, bei denen die Merkmale Bestandteil eines regelbasierten Klassifikators sein können, der ein annotiertes Trainingsset generiert, auf dem wiederum einfache überwachte Klassifikatoren trainiert werden können. In dieser Dissertation werden wir uns vorwiegend auf Szenarien beschränken, bei denen eine Kombination aus linguistischen Merkmalen und maschinellem Lernen vorteilhaft ist. Wir werden Textklassifikationsaufgaben (sowohl grob-körnig als auch fein-körnig) und Extraktionsaufgaben betrachten.
2011-04-19
2017-07-12T07:27:14Z
2011-04-19
2011
doc-type:doctoralThesis
urn:nbn:de:bsz:291-scidok-38820
hdl:20.500.11880/22761
http://dx.doi.org/10.22028/D291-22705
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/232452022-12-01T11:17:53Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:doctoralThesisdoc-type:ResearchDataciminterface:dnbddc:620
Dynamic language models for hybrid speech recognition
Dynamische Sprachmodelle für Hybride Spracherkennung
Georges, Munir
Klakow, Dietrich
ddc:400
Automatische Spracherkennung
Spracheingabe
Markov-Modell
Spracherkennung
ASR
hybrid speech recognition
client-server based
statistical language model
This thesis introduces a technique for hybrid speech recognition. It can be used for client-server based speech recognition on smartphones or car head-units. The speech recognizer is based on weighted finite-state transducers. It uses a decoding technique for nested transducers. This allows the use of dynamic language models which combines grammars and statistical n-gam models. The technique can be used for speech recognition on multiple devices. It also enables the recognition of privacy protected data e.g. contact names from a user’s address book.
In dieser Arbeit wird eine Technik für hybride Spracherkennung vorgestellt. Diese wird verwendet für Client-Server basierte Spracherkennung und findet Anwendung auf Smartphones oder in Auto Infotainment Systemen. Die Technik verwendet gewichtete Transduktoren welche auch ineinander verschachtelt decodiert werden können. Das ermöglicht die Nutzung von dynamischen Sprachmodellen. Diese kombinieren Grammatiken und statistische Modelle. Die Technik erlaubt eine Spracherkennung auf mehreren Geräten. So können auch sensiblen Daten zur Erkennung herangezogen werden, wie z.B. die Namen aus dem persönlichem Adressbuch.
2016-10-19
2017-07-12T07:30:29Z
2016-10-19
2015
2016-11-18
doc-type:doctoralThesis
urn:nbn:de:bsz:291-scidok-66610
hdl:20.500.11880/23245
http://dx.doi.org/10.22028/D291-23189
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/235112019-01-10T07:40:04Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:bookdoc-type:ResearchDataciminterface:dnbddc:620
Festschrift anlässlich des 50jährigen Bestehens des Instituts für Allgemeine und Vergleichende Literaturwissenschaft an der Universität des Saarlandes
50 years General and Comparative Literature in Saarbrücken
Allgemeine und Vergleichende Literaturwissenschaft
ddc:400
Vergleichende Literaturwissenschaft
Wissenschaft
Geschichte
Fachgeschichte
Die vorliegende Festschrift bietet einerseits einen historischen Rückblick auf die Gründung des komparatistischen Institutes in Saarbrücken, andererseits werden aber auch allgemeine fachliche Entwicklungslinien nachgezeichnet.
2001-05-22
2017-07-12T07:35:53Z
2001-05-22
2001
2004-06-24
doc-type:book
urn:nbn:de:bsz:291-scidok-420
hdl:20.500.11880/23511
http://dx.doi.org/10.22028/D291-23455
ger
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/235242019-01-10T07:40:04Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:doctoralThesisdoc-type:ResearchDataciminterface:dnbddc:620
The suprasegmental signaling of attitude in German and Chinese : a phonetically oriented contribution to intercultural communication
The suprasegmental signaling of attitude in German and Chinese : a phonetically oriented contribution to intercultural communication
Die suprasegmentelle Signalisierung von Sprechereinstellung : ein phonetischer Beitrag zur interkulturellen Kommunikation
Müller-Liu, Patricia E.
Barry, William John
ddc:400
Soziolinguistik
Kulturkontakt
Propositionale Einstellung
Interaktionale Soziolinguistik
Interpretative Soziolinguistik
Interkulturelle Kommunikation
Suprasegmentelle Mittel
Sprechereinstellung
interactional sociolinguistics
intercultural communication
suprasegmental features
interpersonal attitude
In den letzten 15 Jahren ist ein wachsendes Interesse an den Erkenntnissen der interkulturellen Kommunikationsforschung zu verzeichnen. Während sich Anthropologie, Soziologie und Kulturpsychologie mit kulturell bedingten Unterschieden in der Mentalität, der Lebensweise und des Interaktionsethos beschäftigen, interessiert sich die Linguistik - vor allem die Sozio-linguistik - für die Probleme, die auf Unterschiede in den kommunikativen Gewohnheiten der Menschen zurückzuführen sind. Hierbei treten die suprasegmentellen Mittel immer mehr in den Vordergrund: Wie die Forschungen der Interaktionalen Soziolinguistik gezeigt haben, sind viele Missverständnisse in der interkulturellen Kommunikation auf Fehlinterpretationen von Intonation, Tonhöhe, Lautstärke, Geschwindigkeit und Stimmqualität zurückzuführen.
In dieser Arbeit wird der interkulturelle Ansatz der Interaktionalen Soziolinguistik mit den Arbeitsmethoden der Experimentalphonetik kombiniert und auf das Deutsche und das Chinesische (Mandarin) angewandt. Nach einer einführenden Betrachtung des chinesischen Interaktionsethos, der mit den in den westlichen Welt vorherrschenden Interaktionsnormen verglichen wird, beschäftigt sich die Arbeit schwerpunktmäßig mit den Funktionen der supra-segmentellen Mittel in den zwei Sprachen, vor allem in Bezug auf die Kommunikation von Sprechereinstellung (attitude). Zu diesem Zweck werden Dialoge mit deutschen und chinesi-schen Sprechern organisiert, in denen unterschiedliche Sprechereinstellungen zum Ausdruck kommen. Diese werden in Hörtests mit deutschen und chinesischen Muttersprachlern analysiert und anhand von Sprechverhaltensmustern (interaction strategies) beschrieben. Die phonetische Exponenz dieser Sprechverhaltensmuster in den zwei Sprachen wird dann in einer mehrteiligen phonetischen Sprachanalyse bestimmt. Der Vergleich der phonetischen Exponenz dieser Sprechverhaltensmuster im Chinesischen und Deutschen gibt Aufschluss über die Faktoren, die in der suprasegmentellen Kommunikation zwischen Sprechern dieser Sprachen zu Problemen führen können. Ein besonderes Augenmerk liegt dabei auf der Rolle der Intonation in Chinesischen - ein Bereich, der fast gänzlich unerforscht ist.
The last 15 years have seen a growing interest in the concerns and achievements of inter-cultural communication research, prompting a steady increase of scholarly writings on topics like intercultural management, cross-cultural business communication and intercultural com-munication at work. Thus, researchers in anthropology, sociology and psychology are taking a growing interest in the problems arising from culturally-patterned differences in mentality, way of life and norms of interaction. Linguists, on the other hand, especially those working in the sociologically and/or anthropologically-oriented disciplines, such as interactional socio-linguistics, are examining the linguistic problems of intercultural communication - those originating in differences in the use of language. In the latter field in particular, attention has come to focus strongly on the use of the suprasegmental features of intonation, pitch, loudness, tempo and voice quality, as differences in the use of these features have been found to cause frequent and serious misunderstandings of speaker meaning and intent.
In this work the intercultural approach of interactional sociolinguistics is combined with the working methods of experimental phonetics and applied to German and Chinese (Mandarin). Following an introductory examination of the Chinese norms of interaction which are compared with those of the western world, this work focuses on the communicative functions of the suprasegmental features in the two languages, in particular in the signaling of attitude. To this aim, dialogs with German and Chinese speakers are organized, in the course of which different speaker attitudes are elicited. These attitudes are determined in listening tests with native speakers of German and Chinese and described in terms of patterns of speech behavior, referred to as interaction strategies. This is followed by the determination of the phonetic exponency of these interaction strategies in the two languages, achieved with the help of conscientious phonetic speech analyses. The phonetic exponency of the interactions strategies in German and Chinese is then compared to reveal the areas which can cause problems in suprasegmental communication between speakers of these two languages. Special emphasis is placed on the role of intonation in Chinese, a field of research which is virtually untouched.
2004-12-22
2017-07-12T07:35:57Z
2004-12-22
2004
doc-type:doctoralThesis
urn:nbn:de:bsz:291-scidok-4167
hdl:20.500.11880/23524
http://dx.doi.org/10.22028/D291-23468
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/235252019-01-10T07:40:04Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:doctoralThesisdoc-type:ResearchDataciminterface:dnbddc:620
The role of visual scenes in spoken language comprehension : evidence from eye-tracking
Die Rolle visueller Szenen für das Hörverstehen
Knoeferle, Pia Stefanie
Crocker, Matthew W.
ddc:400
Hörverstehen
Kontextsensitive Sprache
Situativer Kontext
Ereignis
Ambiguität
Disambiguierung
Abgebildete Ereignisse
Agens-Aktion-Patiens Ereignisse
spoken sentence comprehension
depicted events
incremental thematic role assignment
incremental integration of scene and sentence
The present thesis has investigated comprehension in situations in which language was related to the immediate scene. While current psycholinguistic theories have mainly been developed on the basis of insights from comprehension during reading of isolated sentences, we provide a description of how utterances are processed that relate to the immediate environment. The present research thus adds to existing theories of comprehension, making the first step towards a theory that can account for comprehension both when language is and when it is not about the immediate scene. We have suggested that, under the influence of Fodorian modularity, theoretical as well as experimental psycholinguistic research on on-line sentence comprehension has predominantly been concerned with comprehension during reading and with the effects of stored linguistic and world knowledge on comprehension. This was due to the assumption that core comprehension processes such as the structuring of an utterance could not be influenced on-line by ongoing non-linguistic processes such as visual perception. As a result, relatively little is known about the influence of scene perception on comprehension. One important study, however, by Tanenhaus et al. (1995) has demonstrated the rapid incremental influence of a visual referential context on the on-line structuring of an utterance. To extend our knowledge on how comprehension proceeds when language is related to the scene, we investigated two key issues. First, we explored which types of information in scenes have the potential to affect on-line comprehension processes such as structural disambiguation and incremental thematic role assignment. Second, we examined the nature of the interplay between visual perception and on-line utterance comprehension. Our findings show that perceived event relations between entities in the immediate visual context allow the rapid recovery of mental representations such as thematic roles in the on-line comprehension of spoken sentences, and actively influence incremental resolution of initial structural and role ambiguity in the linguistic input. The influence of scene information on comprehension was determined by a closely temporally coordinated interplay between visual perception and comprehension, in which both scene-driven and utterance-driven processes can take the lead. Furthermore, when the verb in the utterance did not uniquely identify either a depicted or another, stereotypical agent in the scene people had a clear preference for relying on role relations available from the depicted action performed by an agent in the scene rather than on their stereotypical thematic role knowledge. Our findings can be motivated by insights from language acquisition. During acquisition, children explore their environment and acquire new information from entities and events in the immediate scene. When they hear an adult describe that a girl is kicking a ball, and they do not know the verb "kick", perception of the event may allow them to acquire the conceptual meaning of the kicking-action, and to further infer that the entity doing the kicking is called "girl". Crucially, such perceptual exploration of the immediate scene for the acquisition of new concepts is utterance-mediated. The sentence directs attention to entities or events that then in turn can inform language acquisition. Taken together, these findings suggest that the important role of the coordinated interplay between visual perception and comprehension in language acquisition has fundamentally shaped the mechanisms of language comprehension.
Die vorliegende Doktorarbeit hat Sprachverstehen in Situationen erforscht, in denen sich Sprache auf die unmittelbare Umgebung bezieht. Während die meisten psycholinguistischen Theorien anhand von Befunden aus Studien entwickelt wurden, die das Leseverständnis untersuchten, ermöglichen unsere Forschungsergebnisse es, Sprachverstehen zu beschreiben, wenn sich die zu verstehenden Sätze auf die unmittelbare Umgebung beziehen. Unsere Forschung bereichert somit bestehende Theorien, die aus der Untersuchung des Leseverständnisses hervorgingen, und macht einen ersten Schritt in Richtung einer psycholinguistischen Theorie, die sowohl für das Sprachverstehen während des Lesens, als auch für das Verstehen gesprochener Sprache die sich auf die unmittelbare Umgebung bezieht, Gültigkeit besitzt. Wir haben dargelegt, dass theoretische als auch experimentelle psycholinguistische Forschung über on-line Sprachverstehen sich in erster Linie mit Sprachverstehen während des Lesens befasste, und die Effekte von linguistischem und Weltwissen auf das Sprachverstehen untersuchte. Diese einseitige Ausrichtung der Forschung kam durch die Annahme zustande, dass zentrale Verstehensprozesse wie zum Beispiel die Strukturierung einer Äußerung nicht on-line durch gleichzeitig ablaufende Prozesse wie zum Beispiel visuelle Perzeption beeinflusst werden können. Infolgedessen ist nur verhältnismäßig wenig über den Einfluss visueller Wahrnehmung auf Sprachverstehen bekannt. Eine wichtige Studie, durchgeführt von Tanenhaus et al. (1995), hat allerdings gezeigt, dass ein visueller referentieller Kontext einen äußerst raschen Einfluss auf die inkrementelle Strukturierung einer Äußerung haben kann. Zur Erweiterung unseres Wissens bezüglich der Sprachverstehensprozesse, die ablaufen wenn wir Sprache verstehen, die sich auf die unmittelbare Umgebung bezieht, haben wir zwei grundlegende Forschungsfragen untersucht. Erstens haben wir erforscht, welche Arten von Information in visuellen Szenen das Potential haben, on-line Sprachverarbeitungsprozesse wie zum Beispiel die Strukturierung einer Äußerung oder die inkrementelle Zuweisung thematischer Rollen zu beeinflussen. Zweitens haben wir genauer ermittelt, welcher Art das Zusammenspiel zwischen visueller Perzeption und dem inkrementellen Verstehen einer Äußerung ist. Unsere Befunde zeigen, dass wahrgenommene Handlungsbezüge und Ereignisse zwischen Personen im unmittelbaren visuellen Umfeld es ermöglichen, rasch mentale Repräsentationen thematischer Rollen zu bilden. Solche mentalen Strukturen thematischer Relationen ermöglichten sodann aktiv die inkrementelle Zuweisung von thematischen Rollen und die Strukturierung einer anfänglich strukturell ambigen Äußerung. Der Einfluss von Bildinformation auf die Sprachverarbeitung wurde durch ein zeitlich genau koordiniertes Zusammenspiel zwischen visueller Perzeption und Sprachverstehen bestimmt, wobei sowohl die sich entfaltende Äußerung als auch die wahrgenommene Szene die Führungsrolle in diesem Zusammenspiel übernehmen kann. Ferner zeigten unsere Befunde, dass - wenn die Äußerung nicht eindeutig entweder stereotypes thematisches Rollenwissen oder eine abgebildeten Handlung identifizierte, sich das Sprachsystem vorzugsweise auf dargestellte Ereignisse in der thematischen Rollenvergabe verließ. Unsere Befunde können unter Zuhilfenahme von Erkenntnissen der Spracherwerbsforschung erklärt werden. Während des Spracherwerbs erforschen Kinder ihre Umgebung und eignen sich höchstwahrscheinlich Wissen über die Dinge und Ereignisse in ihrer unmittelbaren Umgebung an. Wenn Kinder zum Beispiel einen Erwachsenen sprechen hören, der gerade ein Ereignis beschreibt, in dem ein Mädchen einen Ball schießt, und sie das Verb "schießen" nicht kennen, so kann die Wahrnehmung des Ereignisses es ihnen ermöglichen, die konzeptuelle Bedeutung der Schieß-Handlung zu begreifen. Ferner ermöglicht die Wahrnehmung der Schieß-Handlung zu schlussfolgern, dass das Objekt, welches den Schuss ausführt, "Mädchen" genannt wird. Diese Ausführungen machen deutlich, dass das Sprachsystem darauf ausgerichtet ist neue Information aus der Umgebung zu erwerben, statt sich nur auf erworbenes Wissen zu verlassen. Die Wahrnehmung der unmittelbaren Umgebung ist dabei entscheidend durch sprachliche Äußerungen, die sich auf die Umgebung beziehen, beeinflusst. Ein Satz vermag Aufmerksamkeit auf Dinge und Ereignisse in der Umgebung zu lenken. Information über Dinge und Ereignisse im visuellen Kontext steht dann zur Verfügung um das Sprachverstehen inkrementell zu beeinflussen. Basierend auf unseren Ergebnissen sind wir davon überzeugt, dass die wichtige Rolle, die das koordinierte Zusammenspiel von visueller Perzeption und Sprachverstehen im Spracherwerb einnimmt, die Architektur des Sprachsystems und die Mechanismen des Sprachverstehens längerfristig entscheidend beeinflusst hat.
2005-04-05
2017-07-12T07:35:58Z
2005-04-05
2005
2005-04-05
doc-type:doctoralThesis
urn:nbn:de:bsz:291-scidok-4385
hdl:20.500.11880/23525
http://dx.doi.org/10.22028/D291-23469
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/235262019-01-10T07:40:04Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:doctoralThesisdoc-type:ResearchDataciminterface:dnbddc:620
Generating Anaphoric Expressions : Contextual Reasoning in Sentence Planning
Die Generierung anaphorischer Ausdrücke : kontextuelle Inferenzen in der Satzplanung
Striegnitz, Kristina
Pinkal, Manfred
ddc:400
Linguistische Datenverarbeitung
Sprachverarbeitung
Automatische Sprachproduktion
Anapher <Syntax>
Semantik
Pragmatik
computational linguistics
natural language processing
natural language generation
computational semantics and pragmatics
anaphoric expressions
This thesis investigates the contextual reasoning involved in the production of anaphoric expressions in natural language generation systems. More specifically, I propose generation strategies for two types of discourse anaphora which have not been treated in generation before: bridging descriptions and additive particles. To this end the contextual conditions that govern the use of these expressions have to be formalized. The formalization that I propose is based on notions from linguistics and extends previous approaches to the generation of co-referential anaphora. I then specify the reasoning tasks that have to be carried out in order to check the contextual conditions. I describe how they can be implemented using a state-of-the-art reasoning system for description logics, and I compare my proposal to alternative approaches using other kinds of reasoning tools. Finally, I describe an experimental implementation of the proposed approach.
Diese Arbeit untersucht die kontextuellen Schlussfolgerungen, die bei der Erzeugung von anaphorischen Ausdrücken in Textgenerierungssystemen anfallen. Ich entwickele Generierungsstratgien für zwei Arten von Diskursanaphern, die bisher nicht in der Generierung behandelt worden sind: indirekte Anaphern und additive Partikel. Dafür müssen die kontextuellen Bedingungen, unter denen diese Ausdrücke verwendet werden, bestimmt und formalisiert werden. Die Formalisierung, die ich vorschlage, basiert auf linguistischen Theorien und verallgemeinert ältere Ansätze zur Generierung von koreferentiellen Anaphern. Dann spezifiziere ich die Inferenzaufgaben, die gelöst werden müssen, um die kontextuellen Bedingungen zu überprüfen. Ich beschreibe, wie sie mit Hilfe von aktuellen Inferenzsystemen für terminologische Logiken implementiert werden können, und vergleiche meinen Ansatz mit Alternativen, die andere Arten von logischen Inferenzsystemen nutzen. Schließlich, beschreibe ich eine experimentelle Implementation meines Ansatzes.
2005-11-14
2017-07-12T07:35:58Z
2005-11-14
2004
doc-type:doctoralThesis
urn:nbn:de:bsz:291-scidok-4814
hdl:20.500.11880/23526
http://dx.doi.org/10.22028/D291-23470
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/235272019-01-10T07:40:04Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:doctoralThesisdoc-type:ResearchDataciminterface:dnbddc:620
Satzspaltung und Informationsstruktur im Portugiesischen und im Deutschen : ein Beitrag zur Kontrastiven Linguistik und Übersetzungswissenschaft
Clefting and information structure in Portuguese and in German : a contribution to contrastive linguistics and translation studies
Reichmann, Tinka
Gil, Alberto
ddc:400
Spaltsatz
Portugiesisch
Deutsch
Kontrastive Linguistik
Übersetzungswissenschaft
Satzspaltung
Korpusuntersuchung
funktionaler Ansatz
Portuguese
cleft sentences
corpus analysis
functionalism
translation
Die Arbeit beschäftigt sich mit der Satzspaltung und ihren Funktionen im brasilianischen und europäischen Portugiesisch. Dieses sprachliche Mittel ermöglicht es dem Sender, seine Mitteilung besonders wirksam zu gestalten und eine große Vielfalt von Bedeutungsnuancen auszudrücken. Die große Vielfalt der Formen der portugiesischen Satzspaltung geht mit komplexen Funktionen einher, die anhand eines Korpus von Romanen des 20. Jahrhunderts im Detail untersucht und mit einem deutschen Referenzkorpus kontrastiert werden. Durch eine Übersetzungsanalyse wird die Relevanz der Satzspaltungsfunktionen im Übersetzungsprozess dargestellt. Da das Deutsche auf Grund der relativ freien Wortstellung nicht dieselbe strukturelle Vielfalt der Satzspaltung aufweist, beruht die Analyse auf dem Tertium Comparationis der Satzspaltungsfunktion. Im Anschluss daran werden funktionsgerechte Übersetzungsmethoden aufgezeigt.
This study deals with clefting and its functions in Brazilian and European Portuguese. This linguistic means allows the sender to convey his or her message in a particularly effective way and to express many different meaning nuances. The wide variety of clefting forms in Portuguese is connected to a complex variety of functions, which are analysed in detail in a corpus of 20th century novels and contrasted with a German reference corpus. An analysis of the translations shows the relevance of the cleft functions in the translation process. As German does not have the same structural cleft variety due to its relatively free word order, the analysis is based on the tertium comparationis of the cleft function. Finally, some possible translation methods based on these functions are presented.
2006-02-08
2017-07-12T07:35:58Z
2006-02-08
2005
2010-05-20
doc-type:doctoralThesis
urn:nbn:de:bsz:291-scidok-5037
hdl:20.500.11880/23527
http://dx.doi.org/10.22028/D291-23471
ger
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/235282019-01-10T07:40:04Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:ResearchDatadoc-type:Otherciminterface:dnbddc:620
Eye-tracking during concurrent scene and sentence presentation
Auer, Eric
ddc:400
Psycholinguistik
Sprachverstehen
Syntax
Ambiguität
Eye-tracking
Text/Bild Kongruenz
lokale strukturelle Ambiguität
psycholinguistics
eye-tracking
comprehension
structural ambiguity
scene-sentence integration
Eye-tracking has a long tradition in psycholinguistic research, for example helping to investigate human language comprehension in the presence of non-linguistic context. We present a concurrent scene and written sentence presentation study, where we manipulate congruence and sentence type of structurally ambiguous German sentences. The corresponding displayed scenes show role-ambiguous characters involved in depicted actions. We investigate the effects of depicted events onambiguity resolution in the context of a congruence decision task.
Our concurrent presentation experiment combines aspects of several recent studies on scenesentence integration. We put our results in context and present a comprehensive analysis of our data. The detailed analysis allows direct comparison with various aspects of existing and future results of other studies. We replicate some results from related studies and discuss parallels and differences in the results. We present some interesting interactions between sentence type and congruence effects. Another goal of our study is to evaluate the new open source eye-tracking environment NEWTRACK (running on FreeDOS) and our custom portable DPIFilter post-processing and visualization software. NEWTRACK is more suitable for our study than for example PCEXPT.
We give an overview of the features of NEWTRACK (e.g. support for near-standardhardware and automatic stimulus image analysis) and assess the current performance. We also review the current limitations of NEWTRACK and make suggestions forfuture enhancements.
Eye-tracking hat eine lange Tradition in der psycholinguistischen Forschung, zum Beispiel in Untersuchungen zum menschlichen Sprachverstehen im Zusammenhang mit nichtlinguistischem Kontext. Wir präsentieren eine Studie mit gleichzeitiger Anzeige von Text und Bild, in der wir Kongruenz und Satzbau lokal strukturell ambiger deutscher Stimuli manipulieren. Die verwendeten Bilder zeigen Personen und Aktionen, wobei ambige Rollenzuordnungen vorkommen. Wir untersuchen die Effekte der im Bild gezeigten Ereignisse auf die Ambiguitätsverarbeitung im Kontext der Aufgabe, über die Übereinstimmung von Bild und Text zu entscheiden.
Unser Experiment verbindet Eigenschaften mehrerer aktueller Studien zur Text / Bild Integration. Wir präsentieren unsere Ergebnisse im Kontext und analysieren unsere Daten umfassend. Die detaillierte Analyse erlaubt den direkten Vergleich unserer Ergebnisse mit den Ergebnissen bestehender und zukünftiger Experimente. Wir reproduzieren einige Ergebnisse ähnlicher Studien und besprechen Parallelen und Unterschiede in den Ergebnissen. Wir präsentieren einige interessante Wechselwirkungen zwischen Satzbau und Kongruenzeffekten.
Ein weiteres Ziel unserer Studie ist der Test der neuen open source eye-tracking Umgebung NEWTRACK (unter FreeDOS) und der plattformunabhängigen DPIFilter Nachbearbeitungs- und Visualisierungs-Software dieses Lehrstuhles. NEWTRACK eignet sich aus verschiedenen Gründen besser für unsere Studie als zum Beispiel PCEXPT. Wir bieten einen Überblick über die Funktionen von NEWTRACK (zum Beispiel Unterstützung aktueller Standard-Hardware und automatische Analyse der Stimulus-Bilder) und geben eine Beurteilung der aktuellen Leistungsfähigkeit. Wir betrachten auch die Grenzen der aktuellen NEWTRACK Version und schlagen Verbesserungen für zukünftige Versionen vor.
2006-03-30
2017-07-12T07:35:59Z
2006-03-30
2005
2007-01-25
doc-type:Other
urn:nbn:de:bsz:291-scidok-5688
hdl:20.500.11880/23528
http://dx.doi.org/10.22028/D291-23472
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/235292019-01-10T07:40:04Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:doctoralThesisdoc-type:ResearchDataciminterface:dnbddc:620
Statistical Parsing for German : modeling syntactic properties and annotation differences
Statistische Syntaxanalyse für Deutsch : Modellieren der syntaktischen Eigenschaften und der Anmerkungsunterschiede
Dubey, Amit
Crocker, Matthew
ddc:400
Linguistische Datenverarbeitung
Syntaktische Analyse
Parser
Computerlinguistik
Statistische Syntaxanalyse
Deutsche Sprachverarbeitung
Computational linguistics
Statistical parsing
German language processing
Die bisherige Forschung im Bereich des statistischen Parsing ist weitgehend anglozentrisch: neue Modelle werden in der Regel zuerst für das Englische vorgeschlagen und erst dann für andere Sprachen getestet. Parser für neue Baumbanken werden üblicherweise nicht neu entwickelt, sondern es wird lediglich ein Parsingmodell für das Englische auf die neue Sprache angepasst. In dieser Dissertation wird gezeigt, dass viele der Annahmen, die für das Parsing des Englischen gemacht werden, sich nicht ohne Weiteres auf andere Sprachen und Baumbanken übertragen lassen. Die Gründ dafür sind Unterschiede in der linguistischen Struktur und den Annotationschemata der Baumbanken. Insbesondere zeigen wir, dass lexikalisierte Parsingmodelle, die ursprünglich für das Englische vorgeschlagen wurden, sich nicht gut auf das Deutsche übertragen lassen. Selbst wenn die Modelle abgeändert werden, um Unterschieden in der Annotation Rechnung zu tragen, sind die Leistungsgewinne durch Lexikalisierung im Deutschen deutlich geringer als im Englischen.
Dieses Ergebnis dient uns als Ausgangspunkt für eine weitreichende Untersuchung der Rolle, die die linguistischen Unterschiede zwischen den beiden Sprachen beim statistischen Parsing spielen. Unsere Ergebnisse zeigen, dass die Berücksichtigung von linguistischen Eigenschaften des Deutschen weit
wichtiger als Lexikalisierung sind. Zum Beispiel stellt sich heraus, dass ein relativ einfaches Modell des deutschen Kasussystems sich besser zur Bewältigung von Ambiguitäten eignet als ein lexikalisiertes Modell. Weitere Untersuchungen zeigen außerdem, dass die Ambiguität der lexikalischen Kategorien im Deutschen für eine beträchtliche Anzahl von Parsingfehlern verantwortlich ist. Wir schlagen daraufhin ein Morphologiemodell vor, das aber nur eine unzureichende Verbesserung der Parsingleistung vorweisen kann. Eine Fehleranalyse zeigt jedoch, dass ein ideales Morphologiemodell die Parsingleistung deutlich verbessern würde, da es die häufig auftretende Verb/Adjektiv-Ambiguität auflösen könnte. Des
weiteren schlagen wir ein Modell von langen Abhängigkeiten vor und zeigen, dass dieses Modell die Auflösung von Wortstellungambiguitäten im Deutschen deutlich verbessert.
Wir konstatieren auch, dass die verwendete Evaluationsmetrik die Parsingleistung wesentlich beeinflusst: Lexikalisierte Modelle erzielen eine deutlich bessere Leistung, wenn eine Dependenzmetrik angewandt wird. Unlexikalisierte Modelle dagegen erzielen eine bessere Leistung unter Verwendung einer Konstitutentenmetrik. Andere Faktoren scheinen darüberhinaus einen Einfluss auf die Parsingleistung zu haben: je nach verwendetem Suchalgorithmus oder Glättungsschema kommen potentiell wichtige
Disambiguierungsmerkmale nicht zur Geltung, und die Leistung des Modells fällt ab.
Das beste in dieser Dissertation entwickelte Modell erzielt eine Parsingleistung, die bisher auf dem NEGRA- und TIGER-Korpus unerreicht ist. Das Modell erzielt eine Konstituenten-F-Metrik von 76.2 auf NEGRA und 79.5 auf TIGER. Desweiteren erzielt es eine Dependenz-F-Metrik von 84.0 für NEGRA
und 86.2 für TIGER.
Statistical parsing research can be described as being anglo-centric: new models are first proposed for English parsing, and only then tested in other languages. Indeed, a standard approach to parsing with new treebanks is to adapt fully developed English parsing models to the other language. In this dissertation, however, we claim that many assumptions of English parsing do not generalize to other languages and treebanks because of linguistic and annotation differences. For example, we show that lexicalized models originally proposed for English parsing generalize poorly to German. Even after modifying the models to account for annotation differences, we find the benefit of lexicalization to be far less than in English.
With this as a starting point, we take a closer look what effect that linguistic differences between English and German have on statistical parsing results. We find that a number of linguistic elements of German play a more crucial role than lexicalization. For example, adding a relatively simple model of the German case system to parser accounts for more ambiguity than a complex model including lexicalization. Further studies show that lexical category ambiguity accounts for a surprising amount of parsing mistakes, and while a model of morphology we develop gives mixed results, an error analysis
suggets that a correct model of morphology would help with resolving harmful and common verb/adjective ambiguities. In addition, we offer a preliminary model of long-distance dependencies, showing this model helps greatly in resolving ambiguities caused by German free word order constructions.
We also find that the choice of evaluation metric can have a profound impact on parsing performance: it appears that lexicalized models perform better on dependency-based metrics whereas unlexicalized models perform better on labelled bracketing metrics. Other seemingly arbitrary choices also affect parsing results: the choice of search and smoothing algorithm can potentially obscure helpful linguistic disambiguation cues.
The best performing model we develop sets the state-of-the-art performance on the NEGRA and TIGER corpora, with labelled bracketing scores of 76.2 on NEGRA and 79.5 on TIGER. Furthermore, this parser scores 84.0 on dependencies on the NEGRA corpus, also the best reported performance on that corpus, and 86.2 on the TIGER corpus.
2006-03-10
2017-07-12T07:35:59Z
2006-03-10
2005
2006-03-10
doc-type:doctoralThesis
urn:nbn:de:bsz:291-scidok-4997
hdl:20.500.11880/23529
http://dx.doi.org/10.22028/D291-23473
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/235302019-01-10T07:40:04Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:doctoralThesisdoc-type:ResearchDataciminterface:dnbddc:620
Power plays : the representation of mother-daughter disputes in contemporary plays by women ; a study in discourse analysis
Machtspiele : die Darstellung von Mutter-Tochter Streitgesprächen in zeitgenössichen Dramen von Frauen ; eine diskursanalytische Studie
Spitz, Alice
Norrick, Neal R.
ddc:400
Diskursanalyse
Konfliktgespräche
Macht in sprachlicher Interaktion
Kontextualisierung
conflict talk
power in talk-in-interaction
contextualisation
community of practice
gender
This thesis investigates women';s discursive practices in constructing and negotiating mother-daughter disputes and underlying power relationships. It is based on a corpus of contemporary plays by women, conflict talk being an essential feature of drama. The study pursues various strands of analysis. It attends to the turn-by-turn details of conflict talk as situated local interaction, it looks at aspects of the (para)linguistic choices speakers make in designing and delivering their utterances, and it considers the role of wider contextual aspects such as the participants'; gender, social identities and relationship for the production and interpretation of talk. In doing so, the study draws on a range of methodological frameworks that fall under the umbrella of interactional sociolinguistics, drawing, inter alia, on the analytical tools of conversation analysis, Gumperz'; concept of contextualisation and the notion of face (work) and politeness (Goffman, Brown & Levinson).
The study explores how the sequential organisation of mother-daughter disputes contributes to the contextualisation of this speech activity. In particular, it examines the procedures which highlight the adversative character of oppositional moves in mother-daughter arguments. It also looks at the types of argumentative actions that occur in these disputes and at the ways in which these actions and their responses are formatted and sequenced to uncover the dynamics of the delicate power play that can take place between mothers and daughters in conflict talk.
The results of this study call into question the still-prevalent notion of women as generally displaying an orientation towards cooperative, face-saving interaction and consent. They show that in examining women';s talk-in-interaction it is vital to adopt a context-sensitive approach, which takes into account such features as the situational context and interpersonal relationship aspects.
This research has implications for the study of naturally-occurring conflict talk, for although it looks at constructed dialogue, it yields insight into underlying patterns of knowledge about the workings of real disputes. It also contributes to a number of other research fields, including work on family interaction, intergenerational communication, female discourse, stylistics and power in talk-in-interaction.
Die vorliegenden Arbeit ist im Bereich der empirischen Diskursforschung angesiedelt und untersucht die Gesprächspraktiken, mit denen Mutter-Tochter-Streitgespräche und zu Grunde liegende Machtbeziehungen von den Beteiligten in der lokalen Interaktion (re-)konstituiert und ausgehandelt werden. Die Untersuchung basiert auf einem Korpus zeitgenössischer Theaterstücke von Frauen. Dramen bieten eine reiche Datenquelle für die Konfliktforschung, da die Mechanismen, die Alltagsgesprächen zu Grunde liegen, die Grundlage für die Gestaltung von Dramendialogen bilden. Die Studie behandelt eine Reihe von Fragen nach der Entstehung, Durchführung und Beendigung von Streitgesprächen sowie nach dem Zusammenhang zwischen Konflikt und Macht in (fiktionaler) Mutter-Tochter-Interaktion.
Die Arbeit verfolgt einen interaktionalsoziolinguistischen Ansatz der Diskursanalyse und integriert zwei Kontextaspekte in die Analyse verbaler Interaktion zwischen Müttern und Töchtern: den lokalen, sequenziellen Kontext von Äußerungen und den globalen soziokulturellen Kontext. Methodisch greift sie vor allem auf die Untersuchungsmethoden und -ergebnisse der ethnomethodologischen Konversationsanalyse zurück. Die Studie beinhaltet demnach eine Mikroanalyse von Gesprächen und untersucht die sequenzielle Abfolge von Redebeiträgen (Organisation des Sprecherwechsels, Präferenzorganisation und Verknüpfungstechniken), deren formale Eigenschaften (syntaktische Struktur, Lexis) sowie prosodische, paralinguistische und nonverbale Äußerungsaspekte. Die Verbindung von Detailanalysen mit ethnographischen und soziokulturellen Informationen ermöglicht es zu untersuchen, wie Konfliktgespräche von den Beteiligten gemeinsam interaktiv hergestellt werden, wie der Aktivitätstyp Streit kontextualisiert wird, und wie Teilnehmerinnen ihre sozialen Identitäten und (Macht-)Beziehungen im Verlauf von verbalen Auseinandersetzungen (re-)konstruieren und aushandeln.
Die Ergebnisse der Studie machen deutlich, dass es für die Untersuchung von Frauengesprächen notwendig ist, Generalisierungen über weibliches Gesprächsverhalten zu vermeiden und stattdessen einen kontext-sensitiven Ansatz zu verfolgen, der sowohl den situativen Kontext als auch verschiedene Aspekte der interpersonellen Beziehungen zwischen den Sprecherinnen mit einbezieht.
Die vorliegende Arbeit leistet somit einen Beitrag zu einer Reihe von Forschungsfeldern, so z.B. der linguistischen Konfliktforschung, der Forschung zu Familieninteraktion und intergenerationeller Kommunikation, der Forschung zu weiblichem Kommunikationsverhalten, der Erforschung von Macht in (sprachlicher) Interaktion und nicht zuletzt der Stilistik.
2006-04-21
2017-07-12T07:35:59Z
2006-04-21
2005
doc-type:doctoralThesis
urn:nbn:de:bsz:291-scidok-5955
hdl:20.500.11880/23530
http://dx.doi.org/10.22028/D291-23474
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/235312019-01-10T07:40:04Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:doctoralThesisdoc-type:ResearchDataciminterface:dnbddc:620
The linguistic construction of character relations in TV drama : doing friendship in Sex and the City
Mediale Beziehungsarbeit im Gespräch : die Bewerkstelligung von Freundschaft in der US-amerikanischen Serie Sex and the City
Bubel, Claudia
Norrick, Neal R.
ddc:400
Diskursanalyse
Freundschaft
interaktionale Ausrichtungen
Frage-Antwort-Sequenzen
Anrede
friendship
alignment
community of practice
question-answer-sequences
terms of address
Die vorliegende Arbeit ist im Bereich der angewandten Gesprächsanalyse angesiedelt und beschäftigt sich mit der Frage, wie Freundschaftsbeziehungen zwischen den Charakteren in Fernsehserien erfasst werden können. Sie fokussiert damit zum einen auf konstruierte Dialoge und zum anderen auf Beziehungsarbeit im Gespräch. Um mediale Beziehungsarbeit zu untersuchen, wird ein Modell zum screen-to-face discourse entworfen. Freundschaft wird als dialektischer Prozess zur Herstellung einer angemessenen Balance zwischen Assoziation und Dissoziation verstanden, der anhand von Gesprächsmustern deutlich gemacht werden kann. Zuschauer/-innen gleichen vernommene sprachliche Muster mit ihrem Wissen über das Gesprächsverhalten in bestimmten Beziehungskonstellationen ab und ziehen daraus Schlüsse über die sozialen Bande zwischen den Charakteren. Die Muster, die auf verschiedenen Gesprächsebenen Beziehung generieren, bezeichnet man als interaktionale Ausrichtungen (alignments / disalignment bzw. affiliation / disaffiliation). Zwei Praktiken, die solche Ausrichtungen bewerkstelligen, werden näher untersucht: Formen der Anrede und Frage-Antwort-Sequenzen. Die Adressiertheit der Rede (Kosenamen/Vornamen) häuft sich in Kontexten, in denen die Beziehung in irgendeiner Weise bedroht ist, und ermöglicht eine affiliation im Zuge von disaffiliative moves. Fragen werden hauptsächlich als pro-aktives Mittel zur affiliation eingesetzt und bilden das Kernstück vieler typischer Freundschaftsaktivitäten. Die interaktionalen Ausrichtungen unter den Sex and the City Charakteren wechseln ständig, wobei die Komplexität der Muster mit steigender Zahl der Gesprächsteilnehmerinnen steigt, bis hin zur Ausbildung interaktionaler Teams. Sich permanent verschiebende Muster der Interaktionsordnung auf der sozialen Mikroebene führen zur Aus- und Umbildung sozialer Beziehungen auf der gesellschaftlichen Makroebene. Durch die flexiblen Ausrichtungsmuster sind dabei auch Kritik und Widerspruch möglich und es kann zu einer inneren Differenzierung des Freundschaftskreises im Sinne einer community of practice kommen. Die vorliegende Arbeit leistet damit nicht nur einen Beitrag zur Stilistik und medialen Kommunikation, sondern auch zur soziologisch orientierten Diskursanalyse.
This study attempts to answer the question how the audience in front of the screen knows what kind of relationship characters on screen have from overhearing their talk. Hence, it has two major focal points: dialogue scripted for the screen and the linguistic construction of interpersonal relations. Assuming a process view of friendship relations and developing a model of screen-to-face discourse, which takes Goffman';s notion of the "overhearer'; as a starting point and stresses the audience';s central role in the co-construction of meaning, this study pins down the textual cues which lead to the viewer';s formation of a relationship impression. The patterns of the interaction order commonly termed "alignments'; are shown to be fundamental to the friendship process in which a balance between association and dissociation needs to be achieved. Focusing on the conversational contexts in which they accumulate, the workings of two particularly interesting and versatile alignment practices are described: familiar terms of address used in direct address and question-answer-sequences. Familiar terms of address occur in contexts characterised by a temporary suspension of some fundamental component of friendship relations and function to assuage this disequilibrium by signalling affiliation. Questions predominantly initiate and maintain extended affiliative sequences such as intimacy pursuits and humorous exchanges and have thus a more active part in friendship processes. Analyses of the complex alignment practices in the women';s conversations reveal that the women shift between aligning and disaligning — often even creating temporary interactional teams — and that these shifts accomplish micro-transformations of social structure, which in turn construct social relations on the macro-level. The study shows that the flexibility of the interaction order brought about by shifting alignments allows for criticism and disagreement in a friendship group and also for an intragroup differentiation with more central and more marginal members in the sense of a community of practice. The study hence not only contributes to the fields of linguistic stylistics and media studies, but also to relational communication and discourse analysis, in particular through revising the concept of alignment.
2006-05-04
2017-07-12T07:35:59Z
2006-05-04
2005
doc-type:doctoralThesis
urn:nbn:de:bsz:291-scidok-5988
hdl:20.500.11880/23531
http://dx.doi.org/10.22028/D291-23475
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/235342019-01-10T07:40:04Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:ResearchDataciminterface:dnbddc:620
Using logistic regression to initialise reinforcement-learning-based dialogue systems
Rieser, Verena
Lemon, Oliver
ddc:400
We investigate the use of logistic regression (LR) to initialise Reinforcement Learning (RL)-based dialogue systems with models of human dialogue strategies. LR produces accurate predictions and performs feature selection. We illustrate this technique in exploring human multimodal clarification strategies, observed in a Wizard-of-Oz experiment. We use it to initialise an RL-based system with features which significantly influence human behaviour. We show that the strategy applied by the human wizards is sensitive to different dialogue contexts. Furthermore we show that for predicting clarification behaviour the logistic models improve over the baseline on average twice as much as the supervised learning techniques used in previous work.
2007-01-04
2017-07-12T07:36:00Z
2007-01-04
2006
doc-type:conferenceObject
urn:nbn:de:bsz:291-scidok-9302
hdl:20.500.11880/23534
http://dx.doi.org/10.22028/D291-23478
ger
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/235372019-01-10T07:40:04Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:ResearchDatadoc-type:Otherciminterface:dnbddc:620
Übersetzungsstrategien und -probleme beim Untertiteln (unter besonderer Berücksichtigung der kulturellen Dimensionen)
Translation strategies and problems in subtitling (with a special regard to cultural dimensions)
Schröpf, Ramona
ddc:400
Untertitel <Film>
Film
Übersetzungswissenschaft
Kultur
Kulturspezifika
Realia
Filmübersetzung
Audiovisuelle Translation
audiovisual translation
culture
sub-titling
dubbing
text reduction
Die Arbeit beschäftigt sich mit den Grundlagen der Film-Untertitelung. Schwerpunkte der Arbeit sind hierbei einerseits die (technischen) Restriktionen beim Untertiteln, die daraus entstehende Notwendigkeit der Textverkürzung und dazu angewandte Strategien und andererseits die translatorische Behandlung kulturspezifischer Elemente. Als Fallstudie diente der Film "Le fabuleux destin d';Amélie Poulain" (F/D, 2001), aus dem zahlreiche Beispiele die behandelten Phänomene illustrieren.
2007-02-13
2017-07-12T07:36:00Z
2007-02-13
2003
2007-02-13
doc-type:Other
urn:nbn:de:bsz:291-scidok-9998
hdl:20.500.11880/23537
http://dx.doi.org/10.22028/D291-23481
ger
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/235392019-01-10T07:40:04Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:ResearchDataciminterface:dnbdoc-type:workingPaperddc:620
"Voilà donc le noyau du barbet" : Frases célebres del Fausto en sus traducciones al francés
Wienen, Ursula
ddc:400
Übersetzungswissenschaft
Goethe
Johann Wolfgang {von / Faust
Spanisch
Französisch
Linguistik
Staël-Holstein
Anne Louise Germaine de
Invarianzforderungen
Osterspaziergang
Zitat
Gretchen
"Das also war des Pudels Kern." Esta frase es una de las 170 citas del Fausto de Goethe que se han introducido de manera más o menos lexicalizada en la lengua alemana y que aparecen, por tanto, como frases célebres en la colección más famosa de citas alemanas, la de Georg Büchmann. En el presente estudio se analizan traducciones de estas frases al francés. Desde el punto de vista lingüístico y traductológico se plantean las cuestiones siguientes: ¿Cuál es la razón de las diferentes maneras como se han traducido esos giros al francés? ¿Cuáles son las exigencias de invariabilidad que establecen los traductores de diferentes épocas para su trabajo? ¿Cuáles son los fenómenos que se aprecian en las traducciones de un texto tan célebre como el Fausto?
"Das also war des Pudels Kern." Dieses Zitat aus Goethes Faust ist nur eines von etwa 170 Zitaten, die sich, wie Büchmanns gleichnamiges Werk beweist, als "Geflügelte Worte" in der deutschen Sprache etabliert haben. In der vorliegenden Studie werden einige dieser geflügelten Worte hinsichtlich ihrer Übersetzung ins Französische geprüft, wobei Versionen aus zwei Jahrhunderten zu Rate gezogen werden. Aus linguistisch-translationswissenschaftlicher Sicht sind hierbei vor allem die folgenden Fragen relevant: Welche Gründe sind für die jeweilige Übersetzungslösung anzunehmen? Welche Invarianzforderungen stellen sich für die Übersetzer? Wie gehen die Übersetzer der verschiedenen Epochen bei einem so bekannten Werk wie dem Faust in ihrer Arbeit vor?
2007-04-20
2017-07-12T07:36:01Z
2007-04-20
2007
2007-04-24
doc-type:workingPaper
urn:nbn:de:bsz:291-scidok-11083
hdl:20.500.11880/23539
http://dx.doi.org/10.22028/D291-23483
und
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/235432019-01-10T07:40:04Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:truedoc-type:articleddc:400open_accessdoc-type:ResearchDataciminterface:dnbddc:620
Die automatische Behandlung diskontinuierlicher Konstituenten im Deutschen
Eggers, Hans
Klein, Wolfgang
Rath, Rainer
Rothkegel, Annely
Weber, Heinz-Josef
Zimmermann, Harald H.
ddc:400
Diskontinuierliches Element
Parser
Syntaktische Analyse
Linguistische Datenverarbeitung
Die erwähnte "Syntaxgruppe" stellte 1969 den ersten Parser des Deutschen vor. Seine Funktionsweise wird hier (in einem gemeinsamen Bericht der Syntaxgruppe) am Beispiel der Bearbeitung diskontinuierlicher Konstituenten erläutert.
2007-05-22
2017-07-12T07:36:02Z
2007-05-22
1969
doc-type:article
urn:nbn:de:bsz:291-scidok-7041
hdl:20.500.11880/23543
http://dx.doi.org/10.22028/D291-23487
ger
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/235442019-01-10T07:40:04Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:truedoc-type:bookPartddc:400open_accessdoc-type:ResearchDataciminterface:dnbddc:620
Zur Verwertbarkeit der Grossschreibung bei der automatischen Reduktion syntaktischer Wortformen-Mehrdeutigkeiten im Deutschen
Weber, Heinz-Josef
Zimmermann, Harald H.
ddc:400
Groß- und Kleinschreibung
Automatische Sprachanalyse
Rechtschreibreform
Deutsch
Diese zusammen mit Heinz-Josef Weber erstellte Studie zeigte, dass die Bedeutung der Groß-/Klein-Schreibung für die Reduktion von syntaktischen Mehrdeutigkeiten nicht so groß ist, wie vorher angenommen. Dies hat nicht nur für die automatische Analyse, sondern auch für die Diskussion über eine (gemäßigte) Rechtschreibreform Relevanz.
2007-05-22
2017-07-12T07:36:02Z
2007-05-22
1973
2007-05-22
doc-type:bookPart
urn:nbn:de:bsz:291-scidok-7096
hdl:20.500.11880/23544
http://dx.doi.org/10.22028/D291-23488
ger
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/235472019-01-10T07:40:04Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:doctoralThesisdoc-type:ResearchDataciminterface:dnbddc:620
The integration of syntax and semantic plausibility in a wide-coverage model of human sentence processing
Die Integration von Syntax und semantischer Plausibilität in einem Sprachverarbeitungsmodell mit breiter Abdeckung
Padó, Ulrike
Crocker, Matthew
ddc:400
Sprachverarbeitung <Psycholinguistik>
Modellierung
Semantische Modellierung
Plausibilität
Satzverarbeitung
probabilistische Modellierung
wide coverage
probabilistic model
sentence processing
semantic plausibility
Models of human sentence processing have paid much attention to three key characteristics of the sentence processor: Its robust and accurate processing of unseen input (wide coverage), its immediate, incremental interpretation of partial input and its sensitivity to structural frequencies in previous language experience. In this thesis, we propose a model of human sentence processing that accounts for these three characteristics and also models a fourth key characteristic, namely the influence of semantic plausibility on sentence processing.
The precondition for such a sentence processing model is a general model of human plausibility intuitions. We therefore begin by presenting a probabilistic model of the plausibility of verb-argument relations, which we estimate as the probability of encountering a verb-argument pair in the relation specified by a thematic role in a role-annotated training corpus. This model faces a significant sparse data problem, which we alleviate by combining two orthogonal smoothing methods. We show that the smoothed model';s predictions are significantly correlated to human plausibility judgements for a range of test sets. We also demonstrate that our semantic plausibility model outperforms selectional preference models and a standard role labeller, which solve tasks from computational linguistics that are related to the prediction of human judgements.
We then integrate this semantic plausibility model with an incremental, wide-coverage, probabilistic model of syntactic processing to form the Syntax/Semantics (SynSem) Integration model of sentence processing. The SynSem-Integration model combines preferences for candidate syntactic structures from two sources: Syntactic probability estimates from a probabilistic parser and our semantic plausibility model';s estimates of the verb-argument relations in each syntactic analysis. The model uses these preferences to determine a globally preferred structure and predicts difficulty in human sentence processing either if syntactic and semantic preferences conflict, or if the interpretation of the preferred analysis changes non-monotonically. In a thorough evaluation against the patterns of processing difficulty found for four ambiguity phenomena in eight reading-time studies, we demonstrate that the SynSem-Integration model reliably predicts human reading time behaviour.
Diese Dissertation behandelt die Modellierung des menschlichen Sprachverstehens auf der Ebene einzelner Sätze. Während sich bereits existierende Modelle hauptsächlich mit syntaktischen Prozessen befassen, liegt unser Schwerpunkt darauf, ein Modell für die semantische Plausibilität von Äußerungen in ein Satzverarbeitungsmodell zu integrieren. Vier wichtige Eigenschaften des Sprachverstehens bestimmen die Konstruktion unseres Modells: Inkrementelle Verarbeitung, eine erfahrungsbasierte Architektur, breite Abdeckung von Äußerungen, und die Integration von semantischer Plausibilität. Während die ersten drei Eigenschaften von vielen Modellen aufgegriffen werden, gab es bis jetzt kein Modell, das außerdem auch Plausibilität einbezieht.
Wir stellen zunächst ein generelles Plausibilitätsmodell vor, um es dann mit einem inkrementellen, probabilistischen Satzverarbeitungsmodell mit breiter Abdeckung zu einem Modell mit allen vier angestrebten Eigenschaften zu integrieren. Unser Plausibilitätsmodell sagt menschliche Plausibilitätsbewertungen für Verb-Argumentpaare in verschiedenen Relationen (z.B. Agens oder Patiens) voraus. Das Modell estimiert die Plausibilität eines Verb-Argumentpaars in einer spezifischen, durch eine thematische Rolle angegebenen Relation als die Wahrscheinlichkeit, das Tripel aus Verb, Argument und Rolle in einem rollensemantisch annotierten Trainingskorpus anzutreffen. Die Vorhersagen des Plausbilitätsmodells korrelieren für eine Reihe verschiedener Testdatensätze signifikant mit menschlichen Plausibilitätsbewertungen. Ein Vergleich mit zwei computerlinguist- ischen Ansätzen, die jeweils eine verwandte Aufgabe erfüllen, nämlich die Zuweisung von thematischen Rollen und die Berechnung von Selektionspräferenzen, zeigt, daß unser Modell Plausibilitätsurteile verläßlicher vorhersagt.
Unser Satzverstehensmodell, das Syntax/Semantik-Integrationsmodell, ist eine Kombination aus diesem Plausibilitätsmodell und einem inkrementellen, probabilistischen Satzverarbeitungsmodell auf der Basis eines syntaktischen Parsers mit breiter Abdeckung. Das Syntax/Semantik-Integrationsmodell interpoliert syntaktische Wahrscheinlichkeitsabschätzungen für Analysen einer Äußerung mit den semantischen Plausibilitätsabschätzungen für die Verb-Argumentpaare in jeder Analyse. Das Ergebnis ist eine global präferierte Analyse. Das Syntax/Semantik-Integrationsmodell sagt Verarbeitungsschwierigkeiten voraus, wenn entweder die syntaktisch und semantisch präferierte Analyse konfligieren oder wenn sich die semantische Interpretation der global präferierten Analyse in einem Verarbeitungsschritt nicht-monoton ändert. Die abschließende Evaluation anhand von Befunden über menschliche Verarbeitungsschwierigkeiten, wie sie experimentell in acht Studien für vier Ambiguitätsphänomene festgestellt wurden, zeigt, daß das Syntax/Semantik-Integrationsmodell die experimentellen Daten korrekt voraussagt.
2007-05-31
2017-07-12T07:36:03Z
2007-05-31
2007
2007-05-31
doc-type:doctoralThesis
urn:nbn:de:bsz:291-scidok-11381
hdl:20.500.11880/23547
http://dx.doi.org/10.22028/D291-23491
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/235482019-01-10T07:40:04Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:ResearchDataciminterface:dnbddc:620
Viele Stimmen — keine Stimmen : Versuch einer polyphoniebasierten Beschreibung von Logos und Ethos in der Argumentation
Atayan, Vahram
Franceschini, Rita
ddc:400
Argumentation
Argumentationstheorie
Rhetorik
Logos
Ethos
2007-06-06
2017-07-12T07:36:03Z
2007-06-06
2006
doc-type:conferenceObject
urn:nbn:de:bsz:291-scidok-11424
hdl:20.500.11880/23548
http://dx.doi.org/10.22028/D291-23492
ger
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/235492019-01-10T07:40:04Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:doctoralThesisdoc-type:ResearchDataciminterface:dnbddc:620
Discriminative preprocessing of speech : towards improving biometric authentication
Diskriminative Vorverarbeitung sprachlicher Signale : zur Steigerung biometrischer Sprecherauthentisierung
Wu, Dalei
Barry, William
ddc:400
Sprechererkennung
Automatische Spracherkennung
Mehrschichten-Perzeptron
Biometrie
Authentifikation
SOM
Sprecher-Basis-Selektion
feature enhancement
MLP
SOM
speaker basis selection
speaker recognition
biometry
authentication
verification
Im Rahmen des "SecurePhone-Projektes" wurde ein multimodales System zur Benutzerauthentifizierung entwickelt, das auf ein PDA implementiert wurde. Bei der vollzogenen Erweiterung dieses Systems wurde der Möglichkeit nachgegangen, die Benutzerauthentifizierung durch eine auf biometrischen Parametern (E.: "feature enhancement") basierende Unterscheidung zwischen Sprechern sowie durch eine Kombination mehrerer Parameter zu verbessern.
In der vorliegenden Dissertation wird ein allgemeines Bezugssystem zur Verbesserung der Parameter präsentiert, das ein mehrschichtiges neuronales Netz (E.: "MLP: multilayer perceptron") benutzt, um zu einer optimalen Sprecherdiskrimination zu gelangen.
In einem ersten Schritt wird beim Trainieren des MLPs eine Teilmenge der Sprecher (Sprecherbasis) berücksichtigt, um die zugrundeliegenden Charakteristika des vorhandenen akustischen Parameterraums darzustellen.
Am Ende eines zweiten Schrittes steht die Erkenntnis, dass die Größe der verwendeten Sprecherbasis die Leistungsfähigkeit eines Sprechererkennungssystems entscheidend beeinflussen kann.
Ein dritter Schritt führt zur Feststellung, dass sich die Selektion der Sprecherbasis ebenfalls auf die Leistungsfähigkeit des Systems auswirken kann. Aufgrund dieser Beobachtung wird eine automatische Selektionsmethode für die Sprecher auf der Basis des maximalen Durchschnittswertes der Zwischenklassenvariation (between-class variance) vorgeschlagen. Unter Rückgriff auf verschiedene sprachliche Produktionssituationen (Sprachproduktion mit und ohne Hintergrundgeräusche; Sprachproduktion beim Telefonieren) wird gezeigt, dass diese Methode die Leistungsfähigkeit des Erkennungssystems verbessern kann.
Auf der Grundlage dieser Ergebnisse wird erwartet, dass sich die hier für die Sprechererkennung verwendete Methode auch für andere biometrische Modalitäten als sinnvoll erweist.
Zusätzlich wird in der vorliegenden Dissertation eine alternative Parameterrepräsentation vorgeschlagen, die aus der sog. "Sprecher-Stimme-Signatur" (E.: "SVS: speaker voice signature") abgeleitet wird. Die SVS besteht aus Trajektorien in einem Kohonennetz (E.: "SOM: self-organising map"), das den akustischen Raum repräsentiert. Als weiteres Ergebnis der Arbeit erweist sich diese Parameterrepräsentation als Ergänzung zu dem zugrundeliegenden Parameterset. Deshalb liegt eine Kombination beider Parametersets im Sinne einer Verbesserung der Leistungsfähigkeit des Erkennungssystems nahe.
Am Ende der Arbeit sind schließlich einige potentielle Erweiterungsmöglichkeiten zu den vorgestellten Methoden zu finden.
Schlüsselwörter: Feature Enhancement, MLP, SOM, Sprecher-Basis-Selektion, Sprechererkennung
In the context of the SecurePhone project, a multimodal user authentication system was developed for implementation on a PDA. Extending this system, we investigate biometric feature enhancement and multi-feature fusion with the aim of improving user authentication accuracy.
In this dissertation, a general framework for feature enhancement is proposed which uses a multilayer perceptron (MLP) to achieve optimal speaker discrimination.
First, to train this MLP a subset of speakers (speaker basis) is used to represent the underlying characteristics of the given acoustic feature space.
Second, the size of the speaker basis is found to be among the crucial factors affecting the performance of a speaker recognition system.
Third, it is found that the selection of the speaker basis can also influence system performance. Based on this observation, an automatic speaker selection approach is proposed on the basis of the maximal average between-class variance. Tests in a variety of conditions, including clean and noisy as well as telephone speech, show that this approach can improve the performance of speaker recognition systems. This approach, which is applied here to feature enhancement for speaker recognition, can be expected to also be effective with other biometric modalities besides speech.
Further, an alternative feature representation is proposed in this dissertation, which is derived from what we call speaker voice signatures (SVS). These are trajectories in a Kohonen self organising map (SOM) which has been trained to represent the acoustic space. This feature representation is found to be somewhat complementary to the baseline feature set, suggesting that they can be fused to achieve improved performance in speaker recognition.
Finally, this dissertation finishes with a number of potential extensions of the proposed approaches.
Keywords: feature enhancement, MLP, SOM, speaker basis selection, speaker recognition, biometric, authentication, verification
2007-06-20
2017-07-12T07:36:03Z
2007-06-20
2006
doc-type:doctoralThesis
urn:nbn:de:bsz:291-scidok-9846
hdl:20.500.11880/23549
http://dx.doi.org/10.22028/D291-23493
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/235502019-01-10T07:40:04Zcom_20.500.11880_2com_20.500.11880_6105col_20.500.11880_3col_20.500.11880_6107has-source-swb:truedoc-type:articleddc:400open_accessdoc-type:ResearchDataciminterface:dnbddc:620
A sociolinguistic analysis of swear word offensiveness
Beers Fägersten, Kristy
Norrick, Neal R.
ddc:400
Fluch
Obszönität
Soziolinguistik
swearing
profanity
offensiveness
The methodology of the present study, designed for the purpose of collecting quantitative and qualitative data, reflects a sociolinguistic approach to swearing, allowing for an investigation of the relationship between swear word usage and social context. Previous research had established swearing as both a frequently occurring speech behavior within the university speech community and a highly offensive one. The resulting 'swearing paradox'; represents the question of how frequency and offensiveness can be directly related. The results of the present study explicate the swearing paradox by providing evidence of a discrepancy between the type of swearing that is most characteristic of social interaction within the university speech community and the type of swearing which is typically presented in offensiveness ratings tasks.
2007-06-29
2017-07-12T07:36:04Z
2007-06-29
2007
2008-04-22
doc-type:article
urn:nbn:de:bsz:291-scidok-11736
hdl:20.500.11880/23550
http://dx.doi.org/10.22028/D291-23494
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/235512019-01-10T07:40:04Zcom_20.500.11880_2com_20.500.11880_6105col_20.500.11880_3col_20.500.11880_6107has-source-swb:trueddc:400open_accessdoc-type:ResearchDataciminterface:dnbdoc-type:workingPaperddc:620
Editorial Saarland Working Papers in Linguistics (SWPL)
Gerhardt, Cornelia
ddc:400
Linguistik
editorial
working papers
linguistics
Saarland Working Papers in Linguistics (SWPL) is an e-journal founded by graduate students in English linguistics at Saarland University (UdS). It is primarily meant as a first place of publication for doctoral students and graduate assistants of all linguistics departments at UdS. Furthermore, it aims at generating communication across departments and hopes to be a reflection of linguistics as practiced at UdS.
2007-07-02
2017-07-12T07:36:04Z
2007-07-02
2007
2008-04-22
doc-type:workingPaper
urn:nbn:de:bsz:291-scidok-11727
hdl:20.500.11880/23551
http://dx.doi.org/10.22028/D291-23495
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/235522019-01-10T07:40:04Zcom_20.500.11880_2com_20.500.11880_6105col_20.500.11880_3col_20.500.11880_6107has-source-swb:truedoc-type:articleddc:400open_accessdoc-type:ResearchDataciminterface:dnbddc:620
Music and foreign language pronunciation
Callender, Craig
Norrick, Neal R.
ddc:400
Musikerziehung
Fremdsprachenlernen
Aussprache
musical training
second language
pronunciation
This paper examines the relationship between musical training and success in foreign language pronunciation. I present the results of two studies, one involving native speakers of English learning German, and one involving native speakers of Russian learning English. The hypothesis that those participants with musical training would perform better than those with none was not supported. In conclusion I discuss possible reasons for why the hypothesis was not confirmed, pointing out shortcomings of the studies, and how to improve on them for future research. In particular, I suggest that learner level and aptitude may be relevant confounding factors.
2007-07-02
2017-07-12T07:36:04Z
2007-07-02
2007
2008-04-22
doc-type:article
urn:nbn:de:bsz:291-scidok-11746
hdl:20.500.11880/23552
http://dx.doi.org/10.22028/D291-23496
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/235532022-12-06T12:11:21Zcom_20.500.11880_2com_20.500.11880_6105col_20.500.11880_3col_20.500.11880_6107has-source-swb:truedoc-type:articleddc:400open_accessdoc-type:ResearchDataciminterface:dnbddc:620
On the comprehension of extremely fast synthetic speech
Trouvain, Jürgen
Barry, William
ddc:400
Sprechtempo
Sprachwahrnehmung
Sprachsynthese
speech rate
speech perception
compressed speech
speech synthesis
We report on a pilot study testing the subjective comprehension of tempo-scaled synthetic speech with 9 sighted and 2 blind students. German texts (length, 100 words) were generated with a formant synthesizer and a diphone synthesizer at seven different tempo steps from 3.5 syllables per second (s/s) to 17.5 s/s. The results show that the blind subjects can understand formant synthesis at all offered rates, whereas the performance of their sighted peers declines at a rate of 10.5 s/s. Contrary to our expectations, diphone synthesis is less easy to understand than formant synthesis for both groups at rates faster than 7.5 s/s. The potential reasons for these two main findings are discussed.
2007-07-02
2017-07-12T07:36:04Z
2007-07-02
2007
2008-04-22
doc-type:article
urn:nbn:de:bsz:291-scidok-11766
hdl:20.500.11880/23553
http://dx.doi.org/10.22028/D291-23497
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/235542019-01-10T07:40:04Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:doctoralThesisdoc-type:ResearchDataciminterface:dnbddc:620
Zur Phonetik und Phonologie der Intonation in der Sofioter Varietät des Bulgarischen
On the phonetics and phonology of intonation in the Sofia variety of Bulgarian
Andreeva, Bistra
Barry, William
ddc:400
Intonation <Linguistik>
Phonetik
Experimentelle Phonetik
Metrische Phonologie
Phonologie
Autosegmentale Phonologie
Informationsstruktur
Map Task
zeitliche Zuordnung des Gipfels
Vokalentsonorisierung
Map Task
peak alignment
vowel devoicing
Die Intonation des Bulgarischen war zu verschiedenen Zeitpunkten in der Vergangenheit Gegenstand sprachwissenschaftlichen Interesses, jedoch existiert bisher noch keine Beschreibung, die im Rahmen neuerer Beschreibungsmodelle die Beziehungen zwischen phonologischen Tonalkategorien, ihrer phonetischen Realisierung und ihrer informationsstrukturellen Funktion in Angriff nimmt. Ein vollständiges Modell dieser Art würde jeden Rahmen einer Monographie sprengen. Die vorliegende Dissertation untersucht einzelne Aspekte der Phonetik und Phonologie der Intonation der Sofioter Varietät des Bulgarischen im Rahmen der autosegmental-metrischen Phonologie. Im theoretischen Teil werden die Ergebnisse früherer Studien zum Bulgarischen dargestellt und ihre sich zum Teil ergänzenden Ansätze verdeutlicht. Für die eigenen empirischen Untersuchungen wird ein Datensatz benutzt, der sowohl quasi-spontane Sprache (MapTask-Aufzeichnungen) als auch streng kontrolliertes gelesenes Sprachmaterial enthält. Aus der kombinierten Analyse der beiden Korpora wird ein Inventar nuklearer Tonakzente bezüglich ihrer Verwendung für die verschiedenen untersuchten kommunikativen Funktionen definiert sowie ein formales Gerüst für die Phonologie der Äußerungsintonation im Sofioter Bulgarischen aufgestellt. In einzelnen Experimenten wird die Komplexität der phonetischen Realisierung demonstriert, sei es in der sprecherspezifischen oder in der positionellen Variation einer gegebenen phonologisch-funktionalen Kategorie, sei es in der Wahl einer tonalen oder nicht-tonalen Form einer Demarkationskategorie, sei es in der oft konstatierten, jedoch bei der Intonationsmodellierung immer wieder verdrängten Nichtlinearität der Beziehung zwischen Intonation und Satzmodalität, d.h. der Abhängigkeit der Modalitätsinterpretation von der jeweiligen Kommunikationssituation.
At various times in the past, the intonation of Bulgarian has been the object of scientific interest. However, there has, as yet, been no description which has attempted to establish the relations between phonological tonal categories, their phonetic exponency and their information-structural function within a modern descriptive framework. A comprehensive model of this type would, of course, exceed the scope of any single monograph. Within an autosegmental-metrical framework, this dissertation investigates a number of phonetic and phonological aspects of the variety of Bulgarian spoken in Sofia. In the theoretical part, the results of earlier studies of Bulgarian intonation are presented and their in part complementary approaches discussed. The empirical studies presented here are based on a set of data which comprises both quasi-spontaneous speech (map-task recordings) and strictly controlled read material. An inventory of nuclear tone accents is derived from the combined analysis of both corpora and defined with respect to the various communicative functions which are investigated. From this, a formal framework for the phonology of Bulgarian utterance intonation is constructed. A series of experiments demonstrates the complexity of intonational phonetic exponency; in inter-individual and positional variation of any given phonological-functional category, in the choice of a tonal or atonal form of demarcation, in the frequently noted but just as frequently ignored non-linearity in the relationship between intonation and sentence modality, i.e., the dependency of the signaled modality on the particular communicative situation.
2007-07-23
2017-07-12T07:36:04Z
2007-07-23
2007
doc-type:doctoralThesis
urn:nbn:de:bsz:291-scidok-12089
hdl:20.500.11880/23554
http://dx.doi.org/10.22028/D291-23498
ger
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/235552019-01-10T07:40:04Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:doctoralThesisdoc-type:ResearchDataciminterface:dnbddc:620
Knowledge acquisition for coreference resolution
Wissenserwerb für die Auflösung von Koreferenzen
Uryupina, Olga
Pinkal, Manfred
ddc:400
Sprachverarbeitung
Linguistische Datenverarbeitung
Maschinelles Lernen
Diskurs
Referenzidentität
Koreferenz
Coreference
Coreference Resolution
Machine Learning
Discourse New Descriptions
Diese Arbeit befasst sich mit dem Problem der statistischen Koreferenzauflösung. Theoretische Studien bezeichnen Koreferenz als ein vielseitiges linguistisches Phänomen, das von verschiedenen Faktoren beeinflusst wird. Moderne statistiche Algorithmen dagegen basieren sich typischerweise auf einfache wissensarme Modelle. Ziel dieser Arbeit ist das Schließen der Lücke zwischen Theorie und Praxis.
Ausgehend von den Erkentnissen der theoretischen Studien erfolgt die Bestimmung der linguistischen Faktoren die fuer die Koreferenz besonders relevant erscheinen. Unterschiedliche Informationsquellen werden betrachtet: von der Oberflächenübereinstimmung bis zu den tieferen syntaktischen, semantischen und pragmatischen Merkmalen. Die Präzision der untersuchten Faktoren wird mit korpus-basierten Methoden evaluiert. Die Ergebnisse beweisen, dass die Koreferenz mit den linguistischen, in den theoretischen Studien eingebrachten Merkmalen interagiert. Die Arbeit zeigt aber auch, dass die Abdeckung der untersuchten theoretischen Aussagen verbessert werden kann.
Die Merkmale stellen die Grundlage für den Aufbau eines einerseits linguistisch gesehen reichen andererseits auf dem Machinellen Lerner basierten, d.h. eines flexiblen und robusten Systems zur Koreferenzauflösung.
Die aufgestellten Untersuchungen weisen darauf hin dass das wissensreiche Model erfolgversprechende Leistung zeigt und im Vergleich mit den Algorithmen, die sich auf eine einzelne Informationsquelle verlassen, sowie mit anderen existierenden Anwendungen herausragt. Das System erreicht einen F-wert von 65.4% auf dem MUC-7 Korpus. In den bereits veröffentlichen Studien ist kein besseres Ergebnis verzeichnet.
Die Lernkurven zeigen keine Konvergenzzeichen. Somit kann der Ansatz eine gute Basis fuer weitere Experimente bilden: eine noch bessere Leistung kann dadurch erreicht werden, dass man entweder mehr Texte annotiert oder die bereits existierende Daten effizienter einsetzt.
Diese Arbeit beweist, dass statistiche Algorithmen fuer Koreferenzauflösung stark von den theoretischen linguistischen Studien profitiern können und sollen: auch unvollständige Informationen, die automatische fehleranfällige Sprachmodule liefern, können die Leistung der Anwendung signifikant verbessern.
This thesis addresses the problem of statistical coreference resolution. Theoretical studies describe coreference as a complex linguistic phenomenon, affected by various different factors. State-of-the-art statistical approaches, on the contrary, rely on rather simple knowledge-poor modeling. This thesis aims at bridging the gap between the theory and the practice.
We use insights from linguistic theory to identify relevant linguistic parameters of co-referring descriptions. We consider different types of information, from the most shallow name-matching measures to deeper syntactic, semantic, and discourse knowledge. We empirically assess the validity of the investigated theoretic predictions for the corpus data. Our data-driven evaluation experiments confirm that various linguistic parameters, suggested by theoretical studies, interact with coreference and may therefore provide valuable information for resolution systems. At the same time, our study raises several issues concerning the coverage of theoretic claims. It thus brings feedback to linguistic theory.
We use the investigated knowledge sources to build a linguistically informed statistical coreference resolution engine. This framework allows us to combine the flexibility and robustness of a machine learning-based approach with wide variety of data from different levels of linguistic description.
Our evaluation experiments with different machine learners show that our linguistically informed model, on the one side, outperforms algorithms, based on a single knowledge source and, on the other side, yields the best result on the MUC-7 data, reported in the literature (F-score of 65.4% with the SVM-light learning algorithm).
The learning curves for our classifiers show no signs of convergence. This suggests that our approach makes a good basis for further experimentation: one can obtain even better results by annotating more material or by using the existing data more intelligently.
Our study proves that statistical approaches to the coreference resolution task may and should benefit from linguistic theories: even imperfect knowledge, extracted from raw text data with off-the-shelf error-prone NLP modules, helps achieve significant improvements.
2007-08-28
2017-07-12T07:36:04Z
2007-08-28
2007
2007-08-28
doc-type:doctoralThesis
urn:nbn:de:bsz:291-scidok-12556
hdl:20.500.11880/23555
http://dx.doi.org/10.22028/D291-23499
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/235592022-12-06T12:12:49Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:ResearchDataciminterface:dnbddc:620
Perception of smiled French speech by native vs. non-native listeners : a pilot study
Émond, Caroline
Trouvain, Jürgen
Ménard, Lucie
Trouvain, Jürgen
Campbell, Nick
ddc:400
Smiling is a visible expression and it has been shown that it is audible too. The aim of this paper is to investigate the perception of the prosody of smile in 2 different languages. In order to elicitate smiled speech, 6 speakers of Québec French were required to read sentences displayed with or without caricatures. The sentences produced were used as stimuli for a perception test administered to 10 listeners of Québec French and 10 listeners of German who had no knowledge of French. Results suggest that some prosodic cues are universals and others are culture specific.
2008-04-16
2017-07-12T07:36:06Z
2008-04-16
2007
2008-04-16
doc-type:conferenceObject
urn:nbn:de:bsz:291-scidok-14850
hdl:20.500.11880/23559
http://dx.doi.org/10.22028/D291-23503
ger
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/235602019-01-10T07:40:04Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:conferenceObjectdoc-type:ResearchDataciminterface:dnbddc:620
Proceedings of the Interdisciplinary Workshop on The Phonetics of Laughter : Saarland University, Saarbrücken, Germany, 4-5 August 2007
Trouvain, Jürgen
Campbell, Nick
ddc:400
2008-04-16
2017-07-12T07:36:06Z
2008-04-16
2007
doc-type:conferenceObject
urn:nbn:de:bsz:291-scidok-14876
hdl:20.500.11880/23560
http://dx.doi.org/10.22028/D291-23504
ger
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/235612022-12-06T12:13:03Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:truedoc-type:articleddc:400open_accessdoc-type:ResearchDataciminterface:dnbddc:620
Sensibilisierung von Lernenden für fremdsprachliche Prosodie
Mehlhorn, Grit
Trouvain, Jürgen
ddc:400
2008-04-16
2017-07-12T07:36:06Z
2008-04-16
2007
doc-type:article
urn:nbn:de:bsz:291-scidok-14890
hdl:20.500.11880/23561
http://dx.doi.org/10.22028/D291-23505
ger
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/235622019-01-10T07:40:04Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:ResearchDataciminterface:dnbddc:620
Control concepts for articulatory speech synthesis
Birkholz, Peter
Steiner, Ingmar
Breuer, Stefan
Wagner, Petra
Abresch, Julia
Breuer, Stefan
Hess, Wolfgang
ddc:400
We present two concepts for the generation of gestural scores to control an articulatory speech synthesizer. Gestural scores are the common input to the synthesizer and constitute an or- ganized pattern of articulatory gestures. The first concept gen- erates the gestures for an utterance using the phonetic transcrip- tions, phone durations, and intonation commands predicted by the Bonn Open Synthesis System (BOSS) from an arbitrary in- put text. This concept extends the synthesizerto a text-to-speech synthesis system. The idea of the second concept is to use tim- ing informationextracted from ElectromagneticArticulography signals to generate the articulatory gestures. Therefore, it is a concept for the re-synthesis of natural utterances. Finally, ap- plication prospects for the presented synthesizer are discussed.
2008-04-17
2017-07-12T07:36:07Z
2008-04-17
2007
2008-04-17
doc-type:conferenceObject
urn:nbn:de:bsz:291-scidok-14919
hdl:20.500.11880/23562
http://dx.doi.org/10.22028/D291-23506
ger
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/235632022-12-06T12:11:56Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:ResearchDataciminterface:dnbddc:620
Imitating conversational laughter with an articulatory speech synthesizer
Lasarcyk, Eva
Trouvain, Jürgen
Trouvain, Jürgen
Campbell, Nick
ddc:400
In this study we present initial efforts to model laughter with an articulatory speech synthesizer. We aimed at imitating a real laugh taken from a spontaneous speech database and created several synthetic versions of it using articulatory synthesis and diphone synthesis. In modeling laughter with articulatory synthesis, we also approximated features like breathing noises that do not normally occur in speech.
Evaluation with respect to the perceived degree of naturalness indicated that the laugh stimuli would pass as "laughs'; in an appropriate conversational context. In isolation, though, significant differences could be measured with regard to the degree of variation (durational patterning, fundamental frequency, intensity) within each laugh.
2008-04-17
2017-07-12T07:36:07Z
2008-04-17
2007
2008-06-17
doc-type:conferenceObject
urn:nbn:de:bsz:291-scidok-14866
hdl:20.500.11880/23563
http://dx.doi.org/10.22028/D291-23507
ger
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/235642019-01-10T07:40:04Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:truedoc-type:articleddc:400open_accessdoc-type:ResearchDataciminterface:dnbddc:620
Producing phrasal prominence in German
Andreeva, Bistra
Barry, William J.
Steiner, Ingmar
Trouvain, Jürgen
Barry, William J.
ddc:400
This study examines the relative change in a number of acoustic parameters usually associated with the production of prominences. The production of six German sentences under different question answer conditions provide de-accented and accented versions of the same words in broad and narrow focus. Normalised energy, F0, duration and spectral measures were found to form a stable hierarchy in their exponency of the three degrees of accentuation.
2008-04-18
2017-07-12T07:36:07Z
2008-04-18
2007
doc-type:article
978-3-9811535-1-4
urn:nbn:de:bsz:291-scidok-14927
hdl:20.500.11880/23564
http://dx.doi.org/10.22028/D291-23508
ger
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/235662019-01-10T07:40:04Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:ResearchDataciminterface:dnbddc:620
Modeling and perceiving of different degrees of certainty in articulatory speech synthesis
Wollermann, Charlotte
Lasarcyk, Eva
ddc:400
This paper deals with the role of paralinguistic expression in articulatory speech synthesis. We describe two experiments which investigate the perception of certain vs. uncertain utterances produced by articulatory speech synthesis, using the system developed in [1].
Experiment 1 tests to what extent subjects are able to identify certainty and uncertainty as intended paralinguistic expressions in the acoustical signal by the varying acoustic cues intonation and delay. Further on, we investigate if (un)certainty influences the intelligibility of the synthetic utterances. Results show that the utterances are identified as intended with respect to (un)certainty. Regarding intelligibility, hardly any influence is measurable.
Experiment 2 looks more in detail into the perception of uncertainty by using several levels. Therefore, not only
intonation and delay are varied as acoustical cues but also fillers. Results show that our intended different levels of uncertainty indeed evoked different degrees of perceived uncertainty.
2008-06-30
2017-07-12T07:36:07Z
2008-06-30
2007
doc-type:conferenceObject
urn:nbn:de:bsz:291-scidok-15445
hdl:20.500.11880/23566
http://dx.doi.org/10.22028/D291-23510
ger
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/235672019-01-10T07:40:04Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:ResearchDataciminterface:dnbddc:620
Investigating larynx height with an articulatory speech synthesizer
Lasarcyk, Eva
Trouvain, Jürgen
Barry, William J.
ddc:400
In this paper, we present a comparative study of natural and synthetic speech samples which vary in larynx height. The acoustics of isolated vowels was analyzed with respect to formant frequency changes and changes in voice quality. The synthetic stimuli show the same characteristics as the natural stimuli when special attention is paid to the synthetic excitation quality. One issue addressed behind this study is how the naturalness of speech synthesis can be improved by manipulating voice quality. Another issue is to find out how well the articulatory speech synthesizer used matches the real speech production process.
2008-06-30
2017-07-12T07:36:07Z
2008-06-30
2007
doc-type:conferenceObject
urn:nbn:de:bsz:291-scidok-15438
hdl:20.500.11880/23567
http://dx.doi.org/10.22028/D291-23511
ger
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/235692019-01-10T07:40:04Zcom_20.500.11880_2com_20.500.11880_6105col_20.500.11880_3col_20.500.11880_6106has-source-swb:trueddc:400open_accessdoc-type:ResearchDataciminterface:dnbddc:620
The use of grammatically annotated corpora for the display of textual patterns
Bizjak Koncar, Aleksandra
ddc:400
Linguistik
textual patterns
grammatical annotation
genre analysis
visual presentation technique
This paper looks at how meanings unfold across the genre of Contemporary Slovenian Sermons under the application of tools developed within the fields of systemic functional linguistics and corpus linguistics. The theoretical construct for the analysis is provided by Hasan';s (1984) concept of genre and Cloran';s (1994) concept of message semantics. To determine consistency of textual patterns for the genre of sermons, lexico-grammatical patterns in sermons are examined. It is argued that genre analysis, supported by visual presentation of lexico-grammatical patterns (as suggested by Biber et al. 1998) extracted from a grammatically annotated corpus of Slovenian sermons, provides a fuller picture of crucial properties of genre.
2008-09-03
2017-07-12T07:36:08Z
2008-09-03
2008
2016-06-24
doc-type:conferenceObject
urn:nbn:de:bsz:291-scidok-16857
hdl:20.500.11880/23569
http://dx.doi.org/10.22028/D291-23513
eng
openAccess
cc_by-nc-nd
https://creativecommons.org/licenses/by-nc-nd/2.0/
oai:publikationen.sulb.uni-saarland.de:20.500.11880/235702019-01-10T07:40:04Zcom_20.500.11880_2com_20.500.11880_6105col_20.500.11880_3col_20.500.11880_6106has-source-swb:trueddc:400open_accessdoc-type:ResearchDataciminterface:dnbddc:620
Bakhtinian perspectives : discourse and identity
Gatt, Iris Marie
ddc:400
Linguistik
Diskurs
Bachtin
Michail M.
discourse
subjectivity
post-structuralist
social constructionist
This paper focuses on a speech I recorded from the Sky News television channel in 2000 showing Ms. Betty Boothroyd, then Speaker of the House of Commons in Britain, engaged in her farewell speech to Parliament just before she retired from this institutional position. The last few minutes of Boothroyd';s speech are analysed through the lens of Bahktinian reasonings related to identity. I therefore explore how discourse contributes to the ongoing construction of identity of the principal participant, and how social constructs such as institutional power and control are preserved and reinforced by both agency and social role. Within a post-structuralist and a social constructionist conceptualization of subjectivity, this paper envisages a dynamic relationship between the communicative event and the context which generates it.
2008-09-04
2017-07-12T07:36:08Z
2008-09-04
2008
2016-06-24
doc-type:conferenceObject
urn:nbn:de:bsz:291-scidok-16894
hdl:20.500.11880/23570
http://dx.doi.org/10.22028/D291-23514
eng
openAccess
cc_by-nc-nd
https://creativecommons.org/licenses/by-nc-nd/2.0/
oai:publikationen.sulb.uni-saarland.de:20.500.11880/235712019-01-10T07:40:04Zcom_20.500.11880_2com_20.500.11880_6105col_20.500.11880_3col_20.500.11880_6106has-source-swb:trueddc:400open_accessdoc-type:ResearchDataciminterface:dnbddc:620
Discourse organisation through Theme position
Ho-Dac, Lydia-Mai
ddc:400
Linguistik
Diskurs
discourse organisation
Theme position
data-driven approach
This paper focuses on the role of elements placed in the initial position i.e. elements fulfilling the role of Theme in discourse organisation. The large-scale corpus study proposes a new methodology based on quantitative analysis of the discourse roles of sentence-initial elements. The theoretically-based hypothesis is that Theme position has an important function in discourse organisation. Theme, defined as the starting point of the message, is composed of the first elements that the reader perceives. The analysis of the distribution and the use in discourse of these elements gives us a great overview on the textual organisation of different types of text.
2008-09-05
2017-07-12T07:36:08Z
2008-09-05
2008
2016-06-24
doc-type:conferenceObject
urn:nbn:de:bsz:291-scidok-16911
hdl:20.500.11880/23571
http://dx.doi.org/10.22028/D291-23515
eng
openAccess
cc_by-nc-nd
https://creativecommons.org/licenses/by-nc-nd/2.0/
oai:publikationen.sulb.uni-saarland.de:20.500.11880/235722019-01-10T07:40:04Zcom_20.500.11880_2com_20.500.11880_6105col_20.500.11880_3col_20.500.11880_6106has-source-swb:trueddc:400open_accessdoc-type:ResearchDataciminterface:dnbddc:620
A fresh view of the structure of hard news stories
Mahlberg, Michaela
O'Donnell, Matthew Brook
ddc:400
Linguistik
Korpus <Linguistik>
Zeitungsartikel
Textlinguistik
newspaper story structure
textual functions
text-initial key words
corpus annotation
Using a corpus of newspaper articles divided into two categories based on textual position: TISC (text-initial sentences) and NTISC (all other sentences), the collocates and local patterns of a text-initial key word, fresh, are analyzed. Patterns of fresh + CONTROVERSY NOUN (row, controversy, blow, embarrassment) are particularly distinctive in first sentences including the elements FACE/SPARK ABOUT TIME AFTER, e.g. faced fresh embarrassment over… yesterday when… Using corpus annotation the extent and variation of this pattern is revealed and related to discourse functions, drawing in particular on White';s (1997) characterisation of hard news articles and the notion of the NUCLEUS to describe text beginnings.
2008-09-05
2017-07-12T07:36:08Z
2008-09-05
2008
2016-06-24
doc-type:conferenceObject
urn:nbn:de:bsz:291-scidok-17005
hdl:20.500.11880/23572
http://dx.doi.org/10.22028/D291-23516
eng
openAccess
cc_by-nc-nd
https://creativecommons.org/licenses/by-nc-nd/2.0/
oai:publikationen.sulb.uni-saarland.de:20.500.11880/235732019-01-10T07:40:04Zcom_20.500.11880_2com_20.500.11880_6105col_20.500.11880_3col_20.500.11880_6106has-source-swb:trueddc:400open_accessdoc-type:ResearchDataciminterface:dnbddc:620
Methodological issues of data analysis and interpretation in a discourse based study on the system of Theme in Korean
Kim, Mira
ddc:400
Linguistik
Datenanalyse
Koreanisch
Diskurs
Übersetzung
data analysis
data interpretation
Theme
Korean
translation
This paper discusses methodological issues of data analysis and interpretation that arose in the present author';s discourse based study that investigates the system of THEME in Korean. After a brief introduction of the background and theoretical framework of the study and a critical review of existing studies on Theme in Korean, it discusses in detail methodological issues concerning data, unit of analysis, clause delimitation and Theme identification method. A model of the system of THEME in Korean is presented towards the end of the paper. A detailed discussion of the model, however, is beyond the scope of this paper.
2008-09-06
2017-07-12T07:36:09Z
2008-09-06
2008
2016-06-24
doc-type:conferenceObject
urn:nbn:de:bsz:291-scidok-16962
hdl:20.500.11880/23573
http://dx.doi.org/10.22028/D291-23517
eng
openAccess
cc_by-nc-nd
https://creativecommons.org/licenses/by-nc-nd/2.0/
oai:publikationen.sulb.uni-saarland.de:20.500.11880/235742019-01-10T07:40:04Zcom_20.500.11880_2com_20.500.11880_6105col_20.500.11880_3col_20.500.11880_6106has-source-swb:trueddc:400open_accessdoc-type:ResearchDataciminterface:dnbddc:620
Validating a model of information structure in written English through a reading protocol
Moore, Nick
ddc:400
Linguistik
Informationsstruktur
Englisch
Phänomenologie
data interpretation
information structure
psychology
phenomenology
Systemic Functional Linguistics (SFL)
This paper investigates reasons for the uneasy relationship between Systemic Functional Linguistics (SFL) and the discipline of psychology. It proposes a role for psychological data in SFL, and describes a case study that attempts to combine the methodology of psychology with SFL';s discourse-based approach to language. The case study examines the interpretation of the data obtained from a psychological approach to the SFL puzzle of information structure in written English, and provides evidence to suggest that the SFL notion of information structure has psychological validity.
2008-09-06
2017-07-12T07:36:09Z
2008-09-06
2008
2016-06-24
doc-type:conferenceObject
urn:nbn:de:bsz:291-scidok-16974
hdl:20.500.11880/23574
http://dx.doi.org/10.22028/D291-23518
eng
openAccess
cc_by-nc-nd
https://creativecommons.org/licenses/by-nc-nd/2.0/
oai:publikationen.sulb.uni-saarland.de:20.500.11880/235752019-01-10T07:40:04Zcom_20.500.11880_2com_20.500.11880_6105col_20.500.11880_3col_20.500.11880_6106has-source-swb:trueddc:400open_accessdoc-type:ResearchDataciminterface:dnbddc:620
A corpus-based study of Thai persuasive texts : a transitivity analysis of talisman advertisements
Patpong, Pattama Jor
ddc:400
Linguistik
Korpus <Linguistik>
Diskurs
Talisman
Anzeigensprache
Thailändisch
Transitivität
corpus
persuasive discourse
talisman
advertisement
transitivity analysis
This study aims to explore talisman advertisements as examples of persuasive discourse widely found in Thailand. In the Thai context, the advertising of talismans and Buddha images seems prevalent in a wide range of printed media - leaflets, newspapers, magazines, and books. Data for this paper are drawn from a corpus consisting of twenty talisman advertisements. All of them are taken from Thailand';s best selling-printed newspaper - Thairath. This talisman corpus is composed of 629 clause complexes and 2,565 clause simplexes (involving a little over 20,000 words). The study explores the talisman advertisements stratally by investigating three strata - context, semantics and lexicogrammar. Contextually, the generic structure of the persuasive discourse - Generic Structural Potential (Hasan, 1984b/1996) - is proposed. Semantically, some nuclear and elaborative semantic properties realizing each generic stage are discussed. Lexicogrammatically, an exploration of experiential resources is the main focus of this study: how talisman advertisements are construed grammatically in the transitivity system of Thai.
2008-09-08
2017-07-12T07:36:09Z
2008-09-08
2008
2016-06-24
doc-type:conferenceObject
urn:nbn:de:bsz:291-scidok-16987
hdl:20.500.11880/23575
http://dx.doi.org/10.22028/D291-23519
eng
openAccess
cc_by-nc-nd
https://creativecommons.org/licenses/by-nc-nd/2.0/
oai:publikationen.sulb.uni-saarland.de:20.500.11880/235802019-01-10T07:40:04Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:doctoralThesisdoc-type:ResearchDataciminterface:dnbddc:620
Linguistic-based computational treatment of textual entailment recognition
Linguistik-basierter komputationeller Ansatz zur Erkennung textueller Inferenz
Amoia, Marilisa
Pinkal, Manfred
ddc:400
Semasiologie
Sprachverarbeitung
Lexikalische Semantik
Textuelle Inferenz
Entailment
lexical semantics
natural language processing
entailment
In this thesis, I investigate how lexical resources based on the organisation of lexical knowledge in classes which share common (syntactic, semantic, etc.) features support natural language processing and in particular symbolic recognition of textual entailment. First, I present a robust and wide coverage approach to lexico-structural verb paraphrase recognition based on Levin's (1993) classification of English verbs. Then, I show that by extending Levin's framework to general inference patterns, a classification of English adjectives can be obtained that compared with previous approaches, provides a more fine grained semantic characterisation of their inferential properties. Further, I develop a compositional semantic framework to assign a semantic representation to adjectives based on an ontologically promiscuous approach (Hobbs, 1985) and thereby supporting first order inference for all types of adjectives including extensional ones. Finally, I present a test suite for adjectival inference I developed as a resource for the evaluation of computational systems handling natural language inference.
In der vorliegenden Dissertation habe ich untersucht, wie lexikalische Ressourcen, die auf der Gliederung lexikalischen Wissens in Klassen mit gemeinsamen Eigenschaften (lexikalische, semantische etc,) basieren, die computergestützte Verarbeitung natürlicher Sprache und insbesondere die symbolische Erkennung von Entailment unterstützen. Basierend auf Levins (1993) Klassifikation englischer Verben, wurde zuerst ein robuster, für die Verarbeitung beliebiger Texte geeigneter Ansatz zur Paraphrasenerkennung vorgestellt. Dann habe ich aufgezeigt, dass man durch eine Erweiterung von Levins Systematik zur Behandlung allgemeiner Inferenzmuster, eine Klassifikation von englischen Adjektiven erhält, die verglichen mit früheren Ansätzen, eine feinkörnige semantische Charakterisierung ihrer inferentiellen Eigenschaften gestattet und so die Basis für die computergestützte Behandlung von Inferenz bei Adjektiven bildet. Ein anderes beachtliches Ergebnis der vorliegenden Arbeit ist die Test Suite, die ich entwickelt habe und die als Ressource für NPL Anwendungen, die Inferenzen (insbesondere Inferenzen bei Adjektiven) behandeln, genutzt werden kann. Durch die Konstruktion dieser Test Suite beabsichtige ich, den Weg für die Schaffung von Ressourcen zu ebnen, die einen tieferen Einblick in die für Inferenz verantwortlichen Phänomene ermöglichen.
2009-01-08
2017-07-12T07:36:10Z
2009-01-08
2009
doc-type:doctoralThesis
urn:nbn:de:bsz:291-scidok-20366
hdl:20.500.11880/23580
http://dx.doi.org/10.22028/D291-23524
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/235812019-01-10T07:40:04Zcom_20.500.11880_2com_20.500.11880_6105col_20.500.11880_3col_20.500.11880_6107has-source-swb:trueddc:400open_accessdoc-type:ResearchDataciminterface:dnbdoc-type:workingPaperddc:620
I'm sorry, I've no doubt I've offended someone here : interactional repair in a public mesage board discussion thread
Kleinke, Sonja
Norrick, Neal R.
ddc:400
Computerunterstützte Kommunikation
Online-Foren
interaktionale Reparatur
Computer-mediated communication
CMC
public message boards
interactional repair
This study analyzes a complete discussion thread of a Public Internet Message Board with regards to the use of interactional repair strategies. It considers micro- as well as macro-level strategies and compares these to findings in natural interaction. This study shows that different micro and macro strategies are implemented in different stages of the discussion. Participants use the special framing conditions of public Internet Message Boards to carefully renegotiate their interpersonal relationships after conflictive passages on a one-to-one basis: this cannot be accomplished in the same way in natural poly- or multilogues.
2009-04-28
2017-07-12T07:36:11Z
2009-04-28
2008
doc-type:workingPaper
urn:nbn:de:bsz:291-scidok-21323
hdl:20.500.11880/23581
http://dx.doi.org/10.22028/D291-23525
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/235822019-01-10T07:40:04Zcom_20.500.11880_2com_20.500.11880_6105col_20.500.11880_3col_20.500.11880_6107has-source-swb:trueddc:400open_accessdoc-type:ResearchDataciminterface:dnbdoc-type:workingPaperddc:620
Drops in lingua-cultural voltage? : Culture and language varieties in the German dub of the Italian comedy Ieri, oggi e domani
Nauert, Sandra
Gil, Alberto
ddc:400
Übersetzung
Dialekt
Aussprache
Italienisch
Deutsch
Dubbing
dubbing
translation
dialect
accent
Italian-German
This paper analyses the translation strategies that have been applied in rendering culture-specific elements and dialect/accent in the dubbed German version of Ieri, Oggi e Domani. The extensive use of regiolects, sociolects and accents in the Italian comedy, as well as the typical Italian way of speaking fast, using gestures and puns constitute the main humoristic elements. It appears interesting to study how these elements are transferred into the dubbed German version.
2009-04-28
2017-07-12T07:36:11Z
2009-04-28
2008
doc-type:workingPaper
urn:nbn:de:bsz:291-scidok-21343
hdl:20.500.11880/23582
http://dx.doi.org/10.22028/D291-23526
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/235842019-01-10T07:40:04Zcom_20.500.11880_2com_20.500.11880_6105col_20.500.11880_3col_20.500.11880_6107has-source-swb:trueddc:400open_accessdoc-type:ResearchDataciminterface:dnbdoc-type:workingPaperddc:620
Das Internet als Korpus? : Aktuelle Fragen und Methoden der Korpuslinguistik
The internet as corpus? : Current issues and methodologies in corpus linguistics
Diemer, Stefan
Erdmann, Peter
ddc:400
Korpus <Linguistik>
World Wide Web
Sprachwandel
Lexikologie
Internetbasierte Korpora
Suchtechnologie
corpus linguistics
internet-based corpora
search technology
language change
lexicology
Der Artikel beschreibt aktuelle korpuslinguistische Methoden und Anwendun-gen. Nachfolgend wird die Möglichkeit der Verwendung internetbasierter Daten als Quelle für Korpusforschung wird. Die Grenzen eines solchen internetbasier-ten Ansatzes werden aufgezeigt. Auf der Basis der aktuellen Entwicklungen im Bereich der Suchmaschinentechnologie erfolgt ein Ausblick auf mögliche zu-künftige Anwendungen des Internets als Korpus.
This article describes current methods and applications of corpus linguistics. It then investigates the possibility of using internet data as a source for corpus research. The limitations of such an internet-based approach are described. On the basis of the current developments in search engine technology, an outlook into possible future uses of the internet as a corpus is given.
2009-05-11
2017-07-12T07:36:11Z
2009-05-11
2008
doc-type:workingPaper
urn:nbn:de:bsz:291-scidok-21483
hdl:20.500.11880/23584
http://dx.doi.org/10.22028/D291-23528
ger
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/235882019-01-10T07:40:04Zcom_20.500.11880_2com_20.500.11880_6105col_20.500.11880_3col_20.500.11880_6107has-source-swb:trueddc:400open_accessdoc-type:ResearchDataciminterface:dnbdoc-type:workingPaperddc:620
Organisation von Redebeiträgen : phonetische Merkmale von glattem Übergang und Fortführung von Redebeiträgen
Phonetic features of turn-taking organisation : smooth speaker transition and turn continuation
Köser, Stephanie
Barry, William J.
ddc:400
Phonetik
Interaktionale Linguistik
Gesprächsforschung
Organisation von Redebeiträgen
phonetics
interactional linguistics
conversation analysis
turn-taking
Die Organisation von Redebeiträgen in Zweiergesprächen wurde in Hinblick auf phonetische Merkmale vor glatten Übergängen sowie bei Fortführung des Redebeitrags untersucht. Prosodisch markieren steigende nukleare Intonationskonturen fast ausschließlich Fortführung und fallende Konturen Übergänge. Dass phrasen-finale Laryngalisierung das Ende eines Redebeitrags signalisiert, konnte nicht bestätigt werden. Segmental ist eine abgeschwächte (unaspirierte) Realisierung von phrasen-finalen Plosiven innerhalb des Redebeitrags und weniger präzise Artikulation am Ende von Redebeiträgen auffällig. Daneben variieren die Strategien zwischen den Sprechern und sogar bei demselben Sprecher im Gespräch mit unterschiedlichen Interaktionspartnern.
Turn-taking in dyadic conversation was studied regarding phonetic features of smooth speaker transition and turn continuation. The strongest cues are prosodic (e.g. rising intonation primarily with turn continuation and primarily falling contours with speaker transition). That phrase-final creak signals the end of a turn could not be confirmed. Segmentally, a preponderance of unaspirated stops in the case of turn continuations and a slightly laxer articulation of some segments at the end of turns were found. Both differences between speakers and between individual utterances by the same speaker (depending on the interlocutor) occur.
2009-07-14
2017-07-12T07:36:12Z
2009-07-14
2008
2014-01-02
doc-type:workingPaper
urn:nbn:de:bsz:291-scidok-21363
hdl:20.500.11880/23588
http://dx.doi.org/10.22028/D291-23532
ger
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/235892019-01-10T07:40:04Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:doctoralThesisdoc-type:ResearchDataciminterface:dnbddc:620
Idiom treatment experiments in machine translation
Experimente zur Bearbeitung von Idiomen in Maschineller Übersetzung
Anastasiou, Dimitra
Haller, Johann
ddc:400
Maschinelle Übersetzung
Semantik
Syntax
Topologie <Syntax>
Beispiel-basierte Maschinelle Übersetzung
idiomatische Redewendungen
METIS-II
morphosyntactic rules
example-based MT
German topological field model
syntax
semantics
pattern matching
Idiomatic expressions pose a particular challenge for the today';s Machine Translation systems, because their translation mostly does not result literally, but logically. The present dissertation shows, how with the help of a corpus, and morphosyntactic rules, such idiomatic expressions can be recognized and finally correctly translated. The work leads the reader in the first chapter generally to the field of Machine Translation and following that, it focuses on the special field of Example-based Machine Translation. Next, an important part of the doctoral thesis dissertation is devoted to the theory of idiomatic expressions. The practical part of the thesis describes how the hybrid Example-based Machine Translation system METIS-II, with the help of morphosyntactic rules, is able to correctly process certain idiomatic expressions and finally, to translate them. The following chapter deals with the function of the transfer system CAT2 and its handling of the idiomatic expressions. The last part of the thesis includes the evaluation of three commercial systems, namely SYSTRAN, T1 Langenscheidt, and Power Translator Pro, with respect to continuous and discontinuous idiomatic expressions. For this, both small corpora and a part of the extensive corpus Europarl and the Digital Lexicon of the German Language in 20th century were processed, firstly manually and then automatically. The dissertation concludes with results from this evaluation.
Idiomatische Redewendungen stellen für heutige maschinelle Übersetzungssysteme eine besondere Herausforderung dar, da ihre Übersetzung nicht wörtlich, sondern stets sinngemäß erfolgen muss. Die vorliegende Dissertation zeigt, wie mit Hilfe eines Korpus sowie morphosyntaktischer Regeln solche idiomatische Redewendungen erkannt und am Ende richtig übersetzt werden können. Die Arbeit führt den Leser im ersten Kapitel allgemein in das Gebiet der Maschinellen Übersetzung ein und vertieft im Anschluss daran das Spezialgebiet der Beispielbasierten Maschinellen Übersetzung. Im Folgenden widmet sich ein wesentlicher Teil der Doktorarbeit der Theorie über idiomatische Redewendungen. Der praktische Teil der Arbeit beschreibt wie das hybride Beispielbasierte Maschinelle Übersetzungssystem METIS-II mit Hilfe von morphosyntaktischen Regeln befähigt wurde, bestimmte idiomatische Redewendungen korrekt zu bearbeiten und am Ende zu übersetzen. Das nachfolgende Kapitel behandelt die Funktion des Transfersystems CAT2 und dessen Umgang mit idiomatischen Wendungen. Der letzte Teil der Arbeit beinhaltet die Evaluation von drei kommerzielle Systemen, nämlich SYSTRAN, T1 Langenscheidt und Power Translator Pro, in Bezug auf deren Umgang mit kontinuierlichen und diskontinuierlichen idiomatischen Redewendungen. Hierzu wurden sowohl kleine Korpora als auch ein Teil des umfangreichen Korpus Europarl und des Digatalen Wörterbuchs der deutschen Sprache des 20. Jh. erst manuell und dann maschinell bearbeitet. Die Dissertation wird mit Folgerungen aus der Evaluation abgeschlossen.
2010-10-11
2017-07-12T07:36:12Z
2010-10-11
2010
doc-type:doctoralThesis
urn:nbn:de:bsz:291-scidok-33818
hdl:20.500.11880/23589
http://dx.doi.org/10.22028/D291-23533
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/236002019-01-10T07:40:04Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:doctoralThesisdoc-type:ResearchDataciminterface:dnbddc:620
The comprehension benefit of noun-contingent eye movements in the visual world
Blicke zu benannten Objekten und ihr Nutzen für das Sprachverstehen
Steinberg, Juliane
Crocker, Matthew
ddc:400
Psycholinguistik
Sprachverstehen
Blickbewegung
Priming
Gesprochene Sprache
Objektreferenz
Lexikalische Entscheidungsaufgabe
eye movements
language comprehension
eye tracking
lexical decision
spatial indexing
When we listen to someone talking, we try, at any given point in time, to make the connection between what is being said and the real world. Language processing incorporates information from various different sources and modalities in order to create an immediate and adequate representation of the conveyed meaning. Language processing also affects the information processing in other modalities, specifically visual perception: looks to entities in one’s visual environment while listening to spoken utterances closely mirror one’s comprehension of referring expressions in the speech stream. This behavior - noun-contingent eye movements - has been observed consistently in psycholinguistic research and has been used as a window into the conceptual layer of the language comprehension process, shedding light onto an extremely wide range of language processing phenomena. The phenomenon of noun-contingent eye movements itself is not yet fully understood though. Drawing back on concepts from spatial indexing, lexical access and priming we motivate the search for and investigation of a beneficial effect of noun-contingent referent looks on the noun’s speed of comprehension.
This thesis utilizes a novel experimental methodology which makes it possible to simultaneously observe and manipulate participants’ inclination to make noun-contingent eye movements as well as record the speed of comprehension for the spoken noun that would trigger these eye movements. This is necessary if one wants to investigate a potential effect of eye movements on noun comprehension. The methodology is a combination of a classical visual-world setting, where participants listen to single spoken nouns and inspect an array of objects that may be related to the noun, and of a lexical decision task which is performed on that spoken noun and assesses the speed of its recognition.
With the experiments presented in this thesis we manage to provide reliable empirical evidence for a beneficial effect of noun-contingent referent looks on the speed of noun comprehension. It is also shown that this benefit arises from the perception of the referent’s visual image (as opposed to the activation of internal referent representations or avoidance of interference from unrelated visual images) during the comprehension of the spoken noun (as opposed to a benefit from the initial recognition and encoding of the referent object). Finally, it is proposed that a spatial-indexing mechanism plays a role in mediating the strength of the effect that the visual image provided by a noun-contingent eye movement can have on the comprehension of the spoken noun.
Die Verarbeitung von sprachlichen und bildlichen Reizen ist beim Menschen eng miteinander verwoben. Wer gleichzeitig gesprochener Sprache zuhört und dazu passende Dinge in seiner Umgebung sieht, wird häufig seinen Blick davon steuern lassen, welche Worte er gerade versteht. Das heißt beispielsweise, dass man, während man eine Objektbezeichnung hört, seinen Blick auf das benannte Objekt richtet. In einer Situation, in der auf ein Objekt gezeigt wird ("Schau mal, der Apfel!"), ist die Motivation für solch ein Verhalten intuitiv verständlich. Aber auch in Situationen, in denen sich gesprochene Äußerungen nicht unmittelbar auf die Umgebung beziehen, blicken Zuhörer verlässlich auf Objekte, die zu den gerade geäußerten Worten passen. Solche Blicke sind nicht unmittelbar pragmatisch motiviert, möglicherweise aber dadurch, dass das Sprachverstehen von diesem Blickverhalten profitiert. Dieser Möglichkeit gehen wir in der vorliegenden Arbeit auf den Grund.
Hierzu nutzen wir eine neuartige Kombination von Forschungsmethoden, mit der man gleichzeitig Einblicke sowohl in das Sprachverstehen als auch in die visuelle Verarbeitung gewinnt. Mit dem ’Visual World’-Paradigma werden in der psycholinguistischen Forschung Erkenntnisse über zahlreiche Aspekte der Sprachverarbeitung gewonnen: In Studien zum Sprachverstehen wird der Blick eines Zuhörers zu einem Objekt, das in einer Beziehung zu einem zeitnah geäußerten Wort steht, als Zeichen dafür verstanden, dass der Zuhörer dem Wort (wenigstens zeitweise) die Bedeutung dieses Objekts zuordnet. Indem man nun mittels Eyetracking beobachtet, welche Objekte in Ihrer Umgebung Menschen anschauen, während sie gesprochene Sprache verstehen, erfährt man in einer hohen zeitlichen Auflösung, wie gesprochene Äußerungen interpretiert werden. Mit Studien dieser Art werden Blickbewegungen als Konsequenz der Sprachverarbeitung genutzt; man kann also erfahren, wie das Verstehen gesprochener Sprache die Blickbewegungen steuert. Die zweite Seite unserer zentralen Forschungsfrage ist die nach dem Einfluss der visuellen auf die sprachliche Verarbeitung. Wie wird das Verstehen eines Wortes davon beeinflusst, was man gerade sieht? Solchen Fragestellungen widmen sich Priming- und Lexical-Decision-Studien. Im Priming-Paradigma wird mit verschiedenartigen Aufgaben erforscht, wie sich die Verarbeitung eines Konzept (des Targets) durch den Kontext eines weiteren Konzepts (des Primes) verändert: Indem man Probanden beispielsweise zusätzlich zu einem zu benennenden Objekt ein weiteres Bild zeigt, das in einer engen Beziehung zu dem zu benennenden Objekt steht, gewinnt man Aufschluss darüber, wie ähnliche bildliche Informationen den Benennensprozess beeinflussen. Die lexikalische Entscheidungsaufgabe (Lexical Decision) besteht darin, zu einer kurzen Laut-oder Buchstabenfolge zu entscheiden, ob es sich dabei um ein echtes Wort handelt. Auf unsere Fragestellung angewandt ermöglichen es diese Methoden, herauszufinden, wie Blicke zu verschiedenen Arten von Objekten (Primes) das Verstehen eines gesprochenen Wortes (Targets), erfasst durch die lexikalische Entscheidungsaufgabe, beeinflussen.
Wir finden mit dieser Arbeit in mehreren Experimenten Belege dafür, dass Blickbewegungen zu verwandten Objekten beim Verstehen einer Objektbezeichnung eine Auswirkung auf die Geschwindigkeit des Sprachverstehens haben. Schaut man während des Verstehens eines Wortes auf seinen Referenten, kann das den Verstehensprozess beschleunigen. Dabei profitiert man direkt davon, zeitgleich mit dem Verstehensprozess passende visuelle Informationen aufzunehmen. Vermutlich kommt in diesem Verhältnis den 'Spatial Indices' eine regulierende Rolle zu. Im Rahmen von Theorien über Spatial Indexing und External Memory (Spivey, Richardson, & Fitneva, 2004) wird angenommen, dass man auf Objekte in seiner visuellen Umgebung jederzeit aufgabenbasiert und effektiv zugreift, indem man sie über Indizes in der Umwelt verortet und dem jeweiligen Aufgabenkontext entsprechend intern benennt. Auch Blickbewegungen während des Sprachverstehens können so erklärt werden. Wenn das beginnende Verstehen eines gesprochenen Wortes zu der Benennung vorhandener Indizes passt, werden diese aktiviert, mit ihnen die assoziierten Positionen im Raum, und dadurch werden Blicke zu diesen Positionen ausgelöst. Als Erweiterung dieser bekannten Theorie findet die vorliegende Arbeit Hinweise darauf, dass ein visuelles Objekt nur dann mit dem Verstehen eines gesprochenen Wortes interagieren kann, wenn die Fixation des Objekts durch die Aktivierung eines zum gesprochenen Wort passenden Indizes ausgelöst wurde.
2012-06-05
2017-07-12T07:36:15Z
2012-06-05
2012
doc-type:doctoralThesis
urn:nbn:de:bsz:291-scidok-48701
hdl:20.500.11880/23600
http://dx.doi.org/10.22028/D291-23544
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/236022019-01-10T07:40:04Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:doctoralThesisdoc-type:ResearchDataciminterface:dnbddc:620
Joint attention in spoken human-robot interaction
Geteilte Aufmerksamkeit in Mensch-Roboter-Interaktion
Staudte, Maria
Crocker, Matthew W.
ddc:400
Mensch-Maschine-Kommunikation
Sprachverstehen
Multimodales System
Aufmerksamkeit
Blickrichtung
Roboter
Geteilte Aufmerksamkeit
joint attention
language comprehension
human-robot interaction
multi-modal
alignment
Gaze during situated language production and comprehension is tightly coupled with the unfolding speech stream - speakers look at entities before mentioning them (Griffin, 2001; Meyer et al., 1998), while listeners look at objects as they are mentioned (Tanenhaus et al., 1995). Thus, a speaker's gaze to mentioned objects in a shared environment provides the listener with a cue to the speaker's focus of visual attention and potentially to an intended referent. The coordination of interlocutor's visual attention, in order to learn about the partner's goals and intentions, has been called joint attention (Moore and Dunham, 1995; Emery, 2000). By revealing the speakers communicative intentions, such attentional cues thus complement spoken language, facilitating grounding and sometimes disambiguating references (Hanna and Brennan, 2007).
Previous research has shown that people readily attribute intentional states to non-humans as well, like animals, computers, or robots (Nass and Moon, 2000). Assuming that people indeed ascribe intentional states to a robot, joint attention may be a relevant component of human-robot interaction as well. It was the objective of this thesis to investigate the hypothesis that people jointly attend to objects looked at by a speaking robot and that human listeners use this visual information to infer the robot's communicative intentions.
Five eye-tracking experiments in a spoken human-robot interaction setting were conducted and provide supporting evidence for this hypothesis. In these experiments, participants' eye movements and responses were recorded while they viewed videos of a robot that described and looked at objects in a scene. The congruency and alignment of robot gaze and the spoken references were manipulated in order to establish the relevance of such gaze cues for utterance comprehension in participants.
Results suggest that people follow robot gaze to objects and infer referential intentions from it, causing both facilitation and disruption of reference resolution, depending on the match or mismatch between inferred intentions and the actual utterance. Specifically, we have shown in Experiments 1-3 that people assign attentional and intentional states to a robot, interpreting its gaze as cue to intended referents. This interpretation determined how people grounded spoken references in the scene, thus, influencing overall utterance comprehension as well as the production of verbal corrections in response to false robot utterances. In Experiments 4 and 5, we further manipulated temporal synchronization and linear alignment of robot gaze and speech and found that substantial temporal shifts of gaze relative to speech did not affect utterance comprehension while the order of visual and spoken referential cues did. These results show that people interpret gaze cues in the order they occur in and expect the retrieved referential intentions to be realized accordingly. Thus, our findings converge to the result that people establish joint attention with a robot.
Die Blickrichtung des Menschen ist eng mit Sprachproduktion und Sprachverstehen verknüpft: So schaut ein Sprecher in der Regel auf ein Objekt kurz bevor er es nennt, während der Blick des Hörers sich beim Verstehen des Objektnamens darauf richtet (Griffin, 2001; Meyer et al., 1998; Tanenhaus et al., 1995). Die Blickrichtung des Sprechers gibt dem Hörer also Aufschluss darüber, wohin die Aufmerksamkeit des Sprechers gerade gerichtet ist und worüber möglicherweise als nächstes gesprochen wird. Wenn jemand dem Blick seines Gegenübers folgt, um herauszufinden was dieser fuer Ziele oder Absichten hat, spricht man von gemeinsamer Aufmerksamkeit (Joint Attention, bzw. Shared Attention, wenn beide Gesprächspartner ihre Aufmerksamkeit bewusst koordinieren, Moore and Dunham, 1995; Emery, 2000). Der Blickrichtung des Sprechers zu folgen, kann demnach nützlich sein, da sie häufig seine Absichten verrät. Sie kann sogar das Sprachverstehen erleichtern, indem zum Beispiel referenzierende Ausdruecke mit Hilfe solcher visuellen Informationen disambiguiert werden (Hanna and Brennan, 2007).
Darüber hinaus wurde in der Vergangenheit gezeigt, dass Menschen häufig nicht nur Menschen, sondern auch Tieren und Maschinen, wie zum Bespiel Robotern, Ab- sichten oder Charakterzüge zuschreiben (Nass and Moon, 2000). Wenn Robotern tatsächlich die eigentlich menschliche Fähigkeit, Ziele oder Absichten zu haben, zugeordnet wird, dann ist davon auszugehen, dass gemeinsame Aufmerksamkeit auch einen wichtigen Bestandteil der Kommunikation zwischen Mensch und Roboter darstellt. Ziel dieser Dissertation war es, die Hypothese zu untersuchen, dass Menschen versuchen Aufmerksamkeit mit Robotern zu teilen, um zu erkennen, was ein Roboter beabsichtigt zu sagen oder zu tun.
Wir stellen insgesamt fünf Experimente vor, die diese Hypothese unterstützen. In diesen Experimenten wurden die Augenbewegungen und Antworten, beziehungsweise Reaktionszeiten, von Versuchspersonen aufgezeichnet, während letztere sich Videos anschauten. Die Videos zeigten einen Roboter, welcher eine Anordnung von Objekten beschrieb, während er seine Kamera auf das ein oder andere Objekt richtete, um Blickrichtung zu simulieren. Manipuliert wurde die Kongruenz der Verweise auf Objekte durch Blickrichtung und Objektnamen, sowie die Abfolge solcher Verweise. Folglich konnten der Informationsgehalt und die relative Gewichtung von Blickrichtung fuer das Sprachverstehen bestimmt werden.
Unsere Ergebnisse belegen, dass Menschen tatsächlich dem Roboterblick folgen und ihn ähnlich interpretieren wie die Blickrichtung anderer Menschen, d.h. Versuchspersonen leiteten aus der Blickrichtung des Roboters ab, was dessen vermeintliche (sprachliche) Absichten waren.
Insbesondere zeigen die Experimente 1-3, dass Versuchspersonen die Blickrichtung des Roboters als Hinweis auf nachfolgende, referenzierende Ausdrücke verstehen und dementsprechend die Äußerung des Roboter speziell auf jene angeschauten Objekte beziehen. Dies führt zu verkürzten Reaktionszeiten wenn die Verweise auf Objekte durch Blickrichtung und Objektnamen übereinstimmen, während widersprüchliche Verweise zu verlängerten Reaktionszeiten führen. Dass Roboterblick als Ausdruck einer (sprachlichen) Absicht interpretiert wird, zeigt sich auch in den Antworten, mit denen Versuchspersonen falsche Aussagen des Roboters korrigierten. In den Experimenten 4-5 wurde außerdem die Anordnung der Verweise durch Blick und Sprache manipuliert. Während die genaue zeitliche Abstimmung der Verweise den Einfluss von Roboterblick nicht mindert, so scheint die Reihenfolge der Verweise entscheidend zu sein. Unsere Ergebnisse deuten darauf hin, dass Menschen Absichten aus den Verweisen durch Blickrichtung ableiten und erwarten, dass diese Absichten in derselben Anordnung umgesetzt werden. Insgesamt lassen unsere Ergebnisse also darauf schließen, dass Menschen versuchen, ihre Aufmerksamkeit gemeinsam mit Robotern zu koordinieren, um das Sprachverstehen zu erleichtern.
2010-08-06
2017-07-12T07:36:15Z
2010-08-06
2010
doc-type:doctoralThesis
urn:nbn:de:bsz:291-scidok-32425
hdl:20.500.11880/23602
http://dx.doi.org/10.22028/D291-23546
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/236032019-01-10T07:40:05Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:doctoralThesisdoc-type:ResearchDataciminterface:dnbddc:620
Observations on the dynamic control of an articulatory synthesizer using speech production data
Betrachtungen zur dynamischen Steuerung eines artikulatorischen Synthesizers mit Hilfe von Sprachproduktionsdaten
Steiner, Ingmar Michael Augustus
Barry, William
ddc:400
Sprachsynthese
Sprachproduktion
Elektromagnetische Artikulographie
Dynamische Optimierung
Artikulatorische Sprachsynthese
Vokaltrakt
articulatory speech synthesis
speech production
electromagnetic articulography
dynamic optimization
vocal tract
gestural score
This dissertation explores the automatic generation of gestural score based control structures for a three-dimensional articulatory speech synthesizer. The gestural scores are optimized in an articulatory resynthesis paradigm using a dynamic programming algorithm and a cost function which measures the deviation from a gold standard in the form of natural speech production data. This data had been recorded using electromagnetic articulography, from the same speaker to which the synthesizer's vocal tract model had previously been adapted. Future work to create an English voice for the synthesizer and integrate it into a text-to-speech platform is outlined.
Die vorliegende Dissertation untersucht die automatische Erzeugung von gesturalpartiturbasierten Steuerdaten für ein dreidimensionales artikulatorisches Sprachsynthesesystem. Die gesturalen Partituren werden in einem artikulatorischen Resynthese-Paradigma mittels dynamischer Programmierung optimiert, unter Zuhilfenahme einer Kostenfunktion, die den Abstand zu einem "Gold Standard" in Form natürlicher Sprachproduktionsdaten mißt. Diese Daten waren mit elektromagnetischer Artikulographie am selben Sprecher aufgenommen worden, an den zuvor das Vokaltraktmodell des Synthesesystems angepaßt worden war. Weiterführende Forschung, eine englische Stimme für das Synthesesystem zu erzeugen und sie in eine Text-to-Speech-Plattform einzubetten, wird umrissen.
2010-08-10
2017-07-12T07:36:16Z
2010-08-10
2010
doc-type:doctoralThesis
urn:nbn:de:bsz:291-scidok-32243
hdl:20.500.11880/23603
http://dx.doi.org/10.22028/D291-23547
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/236042019-01-10T07:40:04Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:doctoralThesisdoc-type:ResearchDataciminterface:dnbddc:620
Finding answers to definition questions on the web
Antworten zu Fragen der Definition im Web
Figueroa Amenábar, Alejandro Gastón
Neumann, Günter
ddc:400
Frage-Antwort-System
Linguistische Datenverarbeitung
Textanalyse
question answering
definition questions
language models
feature analysis
dependency paths
semantic classes
context models
Fundamentally, question answering systems are designed for automatically responding to queries posed by users in natural language. The first step in the answering process is query analysis, and its goal is to classify the query in concert with a set of pre-specified types. Traditionally, these classes include: factoid, definition, and list. Systems thereafter chose the answering method in congruence with the class recognised in this early phase. In short, this thesis focuses exclusively on strategies to tackle definition questions (e.g.'; Who is Ben Bernanke?"). This sort of question has become especially interesting in recent years, due to its significant number of submissions to search engines. Most advances in definition question answering have been made under the umbrella of the Text REtrieval Conference (TREC). This is, more precisely, a framework for testing systems operating on a collection of news articles. Thus, the objective of chapter one is to describe this framework along with presenting additional introductory aspects of definition question answering including: (a) how definition questions are prompted by individuals; (b) the different conceptions of definition, and thus of answers; and (c) the various metrics exploited for assessing systems. Since the inception of TREC, systems have put to the test manifold approaches to discover answers, throwing some light onto several key aspects of this problem. On this account, chapter four goes over a selection of some notable TREC systems. This selection is not aimed at completeness, but rather at highlighting the leading features of these systems. For the most part, systems benefit from knowledge bases (e.g., Wikipedia) for obtaining descriptions about the concept being defined (a.k.a. definiendum). These descriptions are thereafter projected onto the array of candidate answers as a means of discerning the correct answer. In other words, these knowledge bases play the role of annotated resources, and most systems attempt to find the answer candidates across the collection of news articles that are more similar to these descriptions. The cornerstone of this thesis is the assumption that it is plausible to devise competitive, and hopefully better, systems without the necessity of annotated resources. Although this descriptive knowledge is helpful, it is the belief of the author that they are built on two wrong premises: 1.It is arguable that senses or contexts related to the definiendum across knowledge bases are the same senses or contexts for the instances across the array of answer candidates. This observation also extends to the fact that not all descriptions within the group of putative answers are necessarily covered by knowledge bases, even though they might refer to the same contexts or senses. 2.Finding an efficient projection strategy does not necessarily entail a good procedure for discerning descriptive knowledge, because it shifts the goal of the task to a more like this set" instead of analysing whether or not each candidate bears the characteristics of a description. In other words, the coverage given by knowledge bases for a specific definiendum is not wide enough to learn all the characteristics that typify its descriptions, so that systems are capable of identifying all answers within the set of candidates. From another angle, a conventional projection methodology can be seen as a finder of lexical analogies. All in all, this thesis investigates into models that disregard this kind of annotated resource and projection strategy. In effect, it is the belief of the author that a robust technique of this sort can be integrated with traditional projection methodologies, and in this way bringing about an enhancement in performance. The major contributions of this thesis are presented in chapters five, six and seven. There are several ways of understanding this structure. For example, chapter five presents a general framework for answering definition questions in several languages. The primary goal of this study is to design a lightweight definition question answering system operating on web-snippets and two languages: English and Spanish. The idea is to utilise web-snippets as a source of descriptive information in several languages, and the high degree of language independency is achieved by making allowances for as little linguistic knowledge as possible. To put it more precisely, this system accounts for statistical methods and a list of stop-words, as well as a set of language-dependent definition patterns. In detail, chapter five branches into two more specific studies. The first study is essentially aimed at capitalising on redundancy for detecting answers (e.g., word frequency counts across answer candidates). Although this type of feature has been widely used by TREC systems, this study focuses on its impact on different languages, and its benefits when applied to web-snippets instead of a collection of news documents. An additional motivation behind targeting web-snippets is the hope of studying systems working on more heterogenous corpora, without incurring the need of downloading full-documents. For instance, on the Internet, the number of distinct senses for the definiendum considerably increases, ergo making it necessary to consider a sense discrimination technique. For this purpose, the system presented in this chapter takes advantage of an unsupervised approach premised on Latent Semantic Analysis. Although the outcome of this study shows that sense discrimination is hard to achieve when operating solely on web snippets, it also reveals that they are a fruitful source of descriptive knowledge, and that their extraction poses exciting challenges. The second branch extends this first study by exploiting multilingual knowledge bases (i.e. Wikipedia) for ranking putative answers. Generally speaking, it makes use of word association norms deduced from sentences that match definitions patterns across Wikipedia. In order to adhere to the premise of not profiting from articles related to a specific definiendum, these sentences are anonymised by replacing the concept with a placeholder, and the word norms are learnt from all training sentences, instead of only from the Wikipedia page about the particular definiendum. The results of this study signify that this use of these resources can also be beneficial; in particular, they reveal that word association norms are a cost-efficient solution. However, the size of the corpus markedly decreases for languages different from English, thus indicating their insufficiency to design models for other languages. Later, chapter six gets more specific and deals only with the ranking of answer candidates in English. The reason for abandoning the idea of Spanish is the sparseness observed across both the redundancy from the Internet and the training material mined from Wikipedia. This sparseness is considerably greater than in the case of English, and it makes learning powerful statistical models more difficult. This chapter presents a novel way of modeling definitions grounded on n-gram language models inferred from the lexicalised dependency tree representation of the training material acquired in the study of chapter five. These models are contextual in the sense that they are built in relation to the semantic of the sentence. Generally, these semantics can be perceived as the distinct types of definienda (e.g., footballer, language, artist, disease, and tree). This study, in addition, investigates the effect of some features on these context models (i.e., named entities, and part-of-speech tags). Overall, the results obtained by this approach are encouraging, in particular in terms of increasing the accuracy of the pattern matching. However, in all likelihood, it was experimentally observed that a training corpus comprising only positive examples (descriptions) is not enough to achieve perfect accuracy, because these models cannot deduce the characteristics that typify non-descriptive content. More essential, as future work, context models give the chance to study how different contexts can be amalgamated (smoothed) in agreement with their semantic similarities in order to ameliorate the performance. Subsequently, chapter seven gets even more specific and it searches for the set of properties that can aid in discriminating descriptions from other kinds of texts. Note that this study regards all kinds of descriptions, including those mismatching definition patters. In so doing, Maximum Entropy models are constructed on top of an automatically acquired large-scale training corpus, which encompasses descriptions from Wikipedia and non-descriptions from the Internet. Roughly speaking, different models are constructed as a means of studying the impact of assorted properties: surface, named entities, part-of-speech tags, chunks, and more interestingly, attributes derived from the lexicalised dependency graphs. In general, results corroborate the efficiency of features taken from dependency graphs, especially the root node and n-gram paths. Experiments conducted on testing sets of various characteristics suggest that it is also plausible to find attributes that can port to other corpora. The second and the third are extra chapters. The former examines different strategies to trawl the Web for descriptive knowledge. In essence, this chapter touches on several strategies geared towards boosting the recall of descriptive sentences across web snippets, especially sentences that match widespread definition patterns. This is a side, but instrumental study to the core of this thesis, as it is necessary for systems targeted at the Internet to develop effective crawling techniques. On the contrary, chapter three has two goals: (a) presenting some components used by the strategies outlined in the last three chapters, this way helping to focus on key aspects of the ranking methodologies, and hence to clearly present the relevant aspects of approaches laid out in these three chapters; and (b) fleshing out some characteristics that make separating the genuine from the misleading answer candidates difficult; particularly, across sentences matching definition patterns. Chapter three is helpful for understanding part of the linguistic phenomena that the posterior chapters deal with. On a final note about the organisation of this thesis, since there is a myriad of techniques, chapter six and seven start dissecting the related work closer to each strategy. The main contribution of each chapter begins at section 6.5 and 7.6, respectively. These two sections start with a discussion and comparison between the proposed methods and the related work presented in their corresponding preceding sections. This organisation is directed at facilitating the contextualisation of the proposed approaches as there are different question answering systems with manifold characteristics.
Frage-Antwort-Systeme sind im Wesentlichen dafür konzipiert, von Benutzern in natürlicher Sprache gestellte Anfragen automatisiert zu beantworten. Der erste Schritt im Beantwortungsprozess ist die Analyse der Anfrage, deren Ziel es ist, die Anfrage entsprechend einer Menge von vordefinierten Typen zu klassifizieren. Traditionell umfassen diese: Faktoid, Definition und Liste. Danach wählten die Systeme dieser frühen Phase die Antwortmethode entsprechend der zuvor erkannten Klasse. Kurz gesagt konzentriert sich diese Arbeit ausschließlich auf Strategien zur Lösung von Fragen nach Definitionen (z.B. ,,emph{Wer ist Ben Bernanke?}"). Diese Art von Anfrage ist in den letzten Jahren besonders interessant geworden, weil sie in beachtlicher Zahl bei Suchmaschinen eingeht. Die meisten Fortschritte in Bezug auf die Beantwortung von Fragen nach Definitionen wurden unter dem Dach der Text Retrieval Conference (TREC) gemacht. Das ist, genauer gesagt, ein Framework zum Testen von Systemen, die mit einer Auswahl von Zeitungsartikeln arbeiten. Daher, zielt Kapitel eins auf eine Beschreibung dieses Rahmenwerks ab, zusammen mit einer Darstellung weiterer einführender Aspekte der Beantwortung von Definitionsanfragen. Diesen schließen u.a. ein: (a) wie Definitionsanfragen von Personen gestellt werden; (b) die unterschiedlichen Begriffe von Definition und folglich auch Antworten; und (c) die unterschiedlichen Metriken, die zur Bewertung von Systemen genutzt werden. Seit Anbeginn von TREC haben Systeme vielfältige Ansätze, Antworten zu entdecken, auf die Probe gestellt und dabei eine Reihe von zentralen Aspekten dieses Problems beleuchtet. Aus diesem Grund behandelt Kapitel vier eine Auswahl einiger bekannter TREC Systeme. Diese Auswahl zielt nicht auf Vollständigkeit ab, sondern darauf, die wesentlichen Merkmale dieser Systeme hervorzuheben. Zum größten Teil nutzen die Systeme Wissensbasen (wie z.B. Wikipedia), um Beschreibungen des zu definierenden Konzeptes (auch als Definiendum bezeichnet) zu erhalten. Diese Beschreibungen werden danach auf eine Reihe von möglichen Antworten projiziert, um auf diese Art die richtige Antwort zu ermitteln. Anders ausgedrückt nehmen diese Wissensbasen die Funktion von annotierten Ressourcen ein, wobei die meisten Systeme versuchen, die Antwortkandidaten in einer Sammlung von Zeitungsartikeln zu finden, die diesen Beschreibungen ähnlicher sind. Den Grundpfeiler dieser Arbeit bildet die Annahme, dass es plausibel ist, ohne annotierte Ressourcen konkurrenzfähige, und hoffentlich bessere, Systeme zu entwickeln. Obwohl dieses deskriptive Wissen hilfreich ist, basieren sie nach Überzeugung des Autors auf zwei falschen Annahmen: 1. Es ist zweifelhaft, ob die Bedeutungen oder Kontexte, auf die sich das Definiendum bezieht, dieselben sind wie die der Instanzen in der Reihe der Antwortkandidaten. Darüber hinaus erstreckt sich diese Beobachtung auch auf die Tatsache, dass nicht alle Beschreibungen innerhalb der Gruppe der mutmaßlichen Antworten notwendigerweise von Wissensbasen abgedeckt werden, auch wenn sie sich auf dieselben Bedeutungen und Kontexte beziehen. 2. Eine effiziente Projektionsstrategie zu finden bedeutet nicht notwendigerweise auch ein gutes Verfahren zur Feststellung von deskriptivem Wissen, denn es verschiebt die Zielsetzung der Aufgabe hin zu einem ,,mehr wie diese Menge" statt zu analysieren, ob jeder Kandidat den Charakteristika einer Beschreibung entspricht oder nicht. Anders ausgedrückt ist die Abdeckung, die durch Wissensbasen für ein spezifisches Definiendum gegeben ist, nicht umfassend genug, um alle Charakteristika, die für seine Beschreibungen kennzeichnend sind, zu erlernen, so dass die Systeme in der Lage sind, alle Antworten innerhalb der Kandidatenmenge zu identifizieren. Eine konventionelle Projektionsstrategie kann aus einem anderen Blickwinkel als Prozedur zum Finden lexikalischer Analogien betrachtet werden. Insgesamt untersucht diese Arbeit Modelle, die Strategien dieser Art in Verbindung mit annotierten Ressourcen und Projektion außer Acht lassen. Tatsächlich ist es die Überzeugung des Autors, dass eine robuste Technik dieser Art mit traditionellen Methoden der Projektion integriert wird und so eine Leistungssteigerung ermöglichen kann. Die größeren Beiträge dieser Arbeit werden in den Kapiteln fünf, sechs und sieben präsentiert. Es gibt mehrere Wege diese Struktur zu verstehen. Kapitel fünf, beispielsweise, präsentiert einen allgemeinen Rahmen für die Beantwortung von Fragen nach Definitionen in mehreren Sprachen. Das primäre Ziel dieser Studie ist es, ein leichtgewichtiges System zur Beantwortung von Fragen nach Definitionen zu entwickeln, das mit Web-Snippets und zwei Sprachen arbeitet: Englisch und Spanisch. Die Grundidee ist, von Web-Snippets als Quelle deskriptiver Information in mehreren Sprachen zu profitieren, wobei der hohe Grad an Sprachunabhängigkeit dadurch erreicht wird, dass so wenig linguistisches Wissen wie möglich berücksichtigt wird. Genauer gesagt berücksichtigt dieses System statistische Methoden und eine Liste von Stop-Wörtern sowie eine Reihe von sprach-spezifischen Definitionsmustern. Im Einzelnen teilt sich Kapitel fünf in zwei spezifischere Studien auf. Die erste Studie zielt im Grunde darauf ab, aus Redundanz für die Ermittlung von Antworten Kapital zu schlagen (z.B. Worthäufigkeiten über verschiedene Antwortkandidaten hinweg). Obwohl eine solche Eigenschaft unter TREC Systemen weit verbreitet ist, legt diese Studie den Schwerpunkt auf die Auswirkungen auf verschiedene Sprachen und auf ihre Vorteile bei der Anwendung auf Web-Snippets statt Zeitungsartikeln. Eine weitere Motivation dahinter, Web-Snippets ins Auge zu fassen, ist die Hoffnung, Systeme zu studieren, die mit heterogenen Corpora arbeiten, ohne es nötig zu machen, vollständige Dokumente herunter zu laden. Im Internet, beispielsweise, steigt die Zahl verschiedener Bedeutungen für das Definiendum deutlich an, was es notwendig macht, eine Technik zur Unterscheidung von Bedeutungen in Betracht zu ziehen. Zu diesem Zweck nutzt das System, das in diesem Kapitel vorgestellt wird, einen unüberwachten Ansatz, der auf der Latent Semantic Analysis basiert. Auch wenn das Ergebnis dieser Studie zeigt, dass die Unterscheidung von Bedeutungen allein anhand von Web-Snippets schwer zu erreichen ist, so lässt es doch auch erkennen, dass sie eine fruchtbare Quelle deskriptiven Wissens darstellen und dass ihre Extraktion spannende Herausforderungen bereithält. Der zweite Teil erweitert diese erste Studie durch die Nutzung mehrsprachiger Wissensbasen (d.h. Wikipedia), um die möglichen Antworten in eine Rangfolge einzureihen. Allgemein ausgedrückt profitiert sie von Wortassoziationsnormen, die von Sätzen gelernt werden, die über Wikipedia hinweg zu Definitionsmustern passen. Um an der Prämisse festzuhalten, keine Artikel mit Bezug auf eine spezifisches Definiendum zu nutzen, werden diese Sätze anonymisiert, indem der Begriff mit einem Platzhalter ersetzt wird, und die Wortnormen werden von allen Sätzen der Trainingsmenge gelernt, statt nur von dem Wikipedia-Artikel, der sich auf das spezielle Definiendum bezieht. Die Ergebnisse dieser Studie zeigen, dass diese Nutzung dieser Ressourcen ebenfalls vorteilhaft sein kann; speziell zeigen sie auf, dass Wortassoziationsnormen eine kosteneffiziente Lösung darstellen. Allerdings nehmen die Corpusgrößen über andere Sprachen als Englisch deutlich ab, was auf deren Unzulänglichkeit für die Konstruktion von Modellen für andere Sprachen hinweist. Kapitel sechs, weiter hinten, wird spezieller und handelt ausschließlich von der Einordnung von Antwortkandidaten in englischer Sprache in eine Rangfolge. Der Grund dafür, hier Spanisch außer Acht zu lassen, ist die geringe beobachtete Dichte, sowohl in Bezug auf redundante Information im Internet als auch in Bezug auf Trainingsmaterial, das von Wikipedia erworben wurde. Diese geringe Dichte ist deutlich stärker ausgeprägt als im Fall der englischen Sprache und erschwert das Erlernen mächtiger statischer Modelle. Dieses Kapitel präsentiert einen neuartigen Weg, Definitionen zu modellieren, die in n-gram Sprachmodellen verankert sind, die aus der lexikalisierten Darstellung des Abhängigkeitsbaumes des in Kapitel fünf erworbenen Trainingsmaterials gelernt wurden. Diese Modelle sind kontextuell in dem Sinne, dass sie in Bezug auf die Semantikdes Satzes konstruiert werden. Im Allgemeinen können diese Semantiken als unterschiedliche Typen von Definienda betrachtet werden (z.B. Fußballer, Sprache, Künstler, Krankheit und Baum). Diese Studie untersucht zusätzlich die Auswirkungen einiger Eigenschaften (nämlich benannter Entitäten und Part-of-speech-Tags) auf diese Kontextmodelle. Insgesamt sind die Ergebnisse, die mit diesem Ansatz erhalten wurden, ermutigend, insbesondere in Bezug auf eine Steigerung der Genauigkeit des Musterabgleichs. Indes wurde höchstwahrscheinlich experimentell beobachtet, dass ein Trainingscorpus, das nur Positivbeispiele (Beschreibungen) enthält, nicht ausreicht, um perfekte Genauigkeit zu erreichen, da diese Modelle die Charakteristika nicht ableiten können, die für nicht-deskriptiven Inhalt kennzeichnend sind. Für die weitere Arbeit ermöglichen es Kontextmodelle zu untersuchen, wie unterschiedliche Kontexte in Übereinstimmung mit deren semantischen Ähnlichkeiten verschmolzen (geglättet) werden können, um die Leistung zu verstärken. Kapitel sieben wird anschließend sogar noch spezieller und sucht nach der Menge von Eigenschaften, die dabei helfen kann, Beschreibungen von anderen Textarten zu unterscheiden. Dabei sollte beachtet werden, dass diese Studie alle Arten von Beschreibungen berücksichtigt, einschließlich derer, die Definitionsmustern nicht genügen. Dadurch werden Maximum-Entropy-Modelle konstruiert, die auf einen automatisch akquirierten Corpus von großem Umfang aufsetzen, der Beschreibungen von Wikipedia und Nicht-Beschreibungen aus dem Internet umfasst. Grob gesagt werden unterschiedliche Modelle konstruiert, um die Auswirkungen verschiedenerlei Merkmale zu untersuchen: Oberfläche, benannte Entitäten, Part-of-speech-Tags, Chunks und, noch interessanter, von den lexikalisierten Abhängigkeitsgraphen abgeleitete Attribute. Im Allgemeinen bestätigen die Ergebnisse die Effizienz von Merkmalen, die Abhängigkeitsgraphen entnommen sind, insbesondere Wurzelknoten und n-gram-Pfaden. Experimente, die mit verschiedenen Testmengen diverser Charakteristika durchgeführt wurden, legen nahe, dass auch angenommen werden kann, dass Attribute gefunden werden, die sich auf andere Corpora übertragen lassen. Es gibt zwei weitere Kapitel: zwei und drei. Ersteres untersucht unterschiedliche Strategien, das Netz nach deskriptivem Wissen zu durchforsten. Im Wesentlichen analysiert dieses Kapitel einige Strategien, die darauf abzielen, die Trefferquote (den Recall) deskriptiver Sätze über Web-Snippets hinweg zu verstärken, insbesondere solcher Sätze, die weit verbreiteten Definitionsmustern genügen. Diese Studie ist eine Nebenstudie, die jedoch für den Kern dieser Arbeit dienlich ist, da es für auf das Internet gerichtete Systeme notwendig ist, effektive Suchstrategien zu entwickeln. Im Gegensatz dazu hat Kapitel drei zwei Ziele: (a) einige Komponenten vorzustellen, die in den Strategien benutzt werden, die in den letzten drei Kapiteln dargestellt werden, was dabei hilft, sich auf die Schlüsselaspekte der Rankingstrategien zu konzentrieren und so die relevanten Aspekte der Ansätze in diesen drei Kapiteln klar darzulegen; (b) einige Charakteristika auszuarbeiten, die die Trennung wirklicher Antwortkandidaten von irreführenden schwierig machen; insbesondere unter Sätzen, die Definitionsmustern entsprechen. Kapitel drei ist hilfreich, um einen Teil der linguistischen Phänomene zu verstehen, von denen die späteren Kapitel handeln. Als abschließende Bemerkungen dieser Arbeit, da es ja eine Unzahl an Methodologien gibt, beginnen die Kapitel sechs und sieben mit den jeweiligen Strategien verwandte Arbeiten zu analysieren. Der Hauptbeitrag des jeweiligen Kapitels beginnt in den Abschnitten 6.5 bzw. 7.6. Diese beiden Abschnitte beginnen mit einer Diskussion und einem Vergleich zwischen den vorgeschlagenen Methoden und den verwandten Arbeiten wie sie in den entsprechenden vorhergehenden Abschnitten vorgestellt wurden. Dieser Aufbau zielt auf eine Vereinfachung der Kontextualisierung der vorgeschlagenen Ansätze, da es unterschiedliche Frage-Antwort-Systeme mit vielfältigen Charakteristika gibt.
2010-08-12
2017-07-12T07:36:17Z
2010-08-12
2010
2012-01-19
doc-type:doctoralThesis
urn:nbn:de:bsz:291-scidok-32065
hdl:20.500.11880/23604
http://dx.doi.org/10.22028/D291-23548
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/236062019-01-10T07:40:04Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:ResearchDataciminterface:dnbddc:620
Translating // the transcultural
Zehle, Soenke
Craig, Kernow
Neilson, Brett
Rossiter, Ned
ddc:400
Interkulturalität
Übersetzung
2010-09-02
2017-07-12T07:36:18Z
2010-09-02
2010
2010-09-02
doc-type:conferenceObject
urn:nbn:de:bsz:291-scidok-33058
hdl:20.500.11880/23606
http://dx.doi.org/10.22028/D291-23550
ger
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/236072019-01-10T07:40:04Zcom_20.500.11880_2com_20.500.11880_6105col_20.500.11880_3col_20.500.11880_6107has-source-swb:trueddc:400open_accessdoc-type:ResearchDataciminterface:dnbdoc-type:workingPaperddc:620
Wir bleiben Kanzlerin — We are Pregnant? : On grammatical, semantic and pragmatic usages of the "we" pronoun
Du Bois, Inke
Baumgarten, Nicole
ddc:400
Grammatik
Deixis
Typologie
Referenz <Linguistik>
Personalpronomen
inklusives/exklusives wir
grammar
deictics
typology
reference
inclusive/exclusive we
This paper convenes and discusses insights from different linguistic paradigms on the study of the first person plural pronouns we and wir. It questions the grammatical and semantic regularities as it addresses deviating structures and meanings. It further draws on cross-linguistic variation on the topic for a deeper understanding of grammatical and semantic peculiarities of the first person plural pronoun in English and German.
2010-11-10
2017-07-12T07:36:18Z
2010-11-10
2009
doc-type:workingPaper
urn:nbn:de:bsz:291-scidok-33964
hdl:20.500.11880/23607
http://dx.doi.org/10.22028/D291-23551
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/236082019-01-10T07:40:04Zcom_20.500.11880_2com_20.500.11880_6105col_20.500.11880_3col_20.500.11880_6107has-source-swb:trueddc:400open_accessdoc-type:ResearchDataciminterface:dnbdoc-type:workingPaperddc:620
It's all a bit upmessing - non-standard verb-particle combinations in blogs
Diemer, Stefan
Cho, See-Young
ddc:400
Sprachwandel
Web log
Verb-Partikel-Kombination
verb-particle combinations
blogs
language change
This article will explore how verb-particle combinations, for a long time one of the most productive segments of English word-formation, have changed with the advent of online real-time short communication forms such as blogs or their more sophisticated social networking or microblogging varieties like Twitter and Facebook. Following up on earlier research (Diemer 2008), evidence will be presented that that the long and seemingly unstoppable trend towards verb-adverb combinations and the decline of the prefixes has been partly reversed by these new forms of communication. Selected examples with the prefixes in and on will be discussed. It will be argued that the main reasons for this change are facilitation of syntax, need for innovation in specialized and peer group communication, analogy formation and the influence of other languages on English.
2010-11-10
2017-07-12T07:36:18Z
2010-11-10
2009
doc-type:workingPaper
urn:nbn:de:bsz:291-scidok-34172
hdl:20.500.11880/23608
http://dx.doi.org/10.22028/D291-23552
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/236092019-01-10T07:40:04Zcom_20.500.11880_2com_20.500.11880_6105col_20.500.11880_3col_20.500.11880_6107has-source-swb:trueddc:400open_accessdoc-type:ResearchDataciminterface:dnbdoc-type:workingPaperddc:620
Ratifying and rejecting listener assessments in the course of multi-unit turns
Norrick, Neal R.
Gerhardt, Cornelia
ddc:400
Konversation
Bewertung
Hörer
Hörersignale
Redebeiträge
assessments
conversation
evaluation
listener responses
multi-unit turns
This article investigates the effects listener assessments can have on the course of a multi-unit turn. Specifically, listener assessments can elicit responses from the primary speaker and thus generate talk in their own right. The primary speaker may orient to the content of listener assessments and respond to them in various (positive or negative) ways, suspending the multi-unit turn in progress to comment or altering the direction of the turn. Shared assessments can lead to higher involvement and increased rapport with consequences for subsequent interaction between the participants. Rejections of listener assessments are much less frequent than ratifications: rejection of a listener assessment expresses the teller's refusal to have it count as part of the overall evaluation of the multi-unit turn in progress.
2010-11-10
2017-07-12T07:36:18Z
2010-11-10
2009
doc-type:workingPaper
urn:nbn:de:bsz:291-scidok-33954
hdl:20.500.11880/23609
http://dx.doi.org/10.22028/D291-23553
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/236122019-01-10T07:40:04Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:doctoralThesisdoc-type:ResearchDataciminterface:dnbddc:620
From community interpreting to discourse interpreting : a Triadic Discourse Interpreting Model (TRIM)
Vom "Community Interpreting" zum Diskursdolmetschen : ein triadisches Diskursdolmetschen-Modell (TRIM)
Jiang, Lihua
Gerzymisch-Arbogast, Heidrun
ddc:400
Kommunaldolmetschen
Diskursanalyse
Rolle
Community Interpreting
interpreter's role
discourse interpreting filters
While conference interpreting has developed as a fairly well-established discipline in terms of concepts and methods, interpreter-mediated community, so-called Community Interpreting is still a neglected research topic despite its growing importance and recognition. Communication problems associated with the interpreter's presence and actions have come into the focus of discussion, leading to such opposing views of the interpreter as a "verbatim" reproducer of messages in another language on the one hand or as "advocator", "cultural broker" or "conciliator" on the other hand. However, none of the existing literature explores the interrelationship of the individual parameters in the context of specific communication event with a view to determining the interpreter's role within the scenario. This paper aims at exploring the interpreter';s scope of action in a given situation. In order to discuss this, static and dynamic parameters are established and described in a triadic discourse communication when an interpreter reproduces a target message. This interplay is assumed to take place in the form of a number of Interpreting Filters (IF) through which a source message (M) passes to become a target message (M'). This whole system is referred to as the Triadic Discourse Interpreting Model (TRIM). Within the model, the filters interrelate static components describing the parameter "ingredients" of a basic interpreter-mediated communication and dynamic components showing the flow of an original message M through a series of filters (i.e. discourse purpose filter, coherence filter, knowledge filter, isotopy filter, interest filter) as decision-making stages to become different types of M' (zero M', partially invariant M' with two categories, variant M', invariant M').
Die vorliegende, in englischer Sprache verfasste Dissertation handelt vom "Community Interpreting", d.h. dem zwei- oder mehrsprachigen Dolmetschen in einer Gesprächssituation, in der bilateral bzw. retour in und aus einer Muttersprache gedolmetscht wird. Während sich das Konferenzdolmetschen in seinen Ausprägungen als Simultan- und Konsekutivdolmetschen heute klar in Begriff und Methode etabliert hat und dadurch zum Ausgangspunkt vieler Forschungsfragen und Bemühungen geworden ist, ist das "Community Interpreting" in Begriff und Methode bis heute unklar und wird in seinen Bedingungen und Problemen kontrovers diskutiert. Die vorliegende Arbeit will einen Beitrag zur Erforschung dieses komplexen Gegenstandsbereichs leisten, indem Faktoren herausgearbeitet, systematisiert und in ihrem Zusammenspiel gezeigt werden, die Einfluss auf die heute noch zum Teil unbewussten Entscheidungen der DolmetscherIn in der aktuellen Kommunikationssituation haben. Damit soll der DolmetscherIn eine Orientierungshilfe gegeben werden, sich in einer konkreten Dolmetschung bewusst für eine strategische Dolmetschvariante und Vorgehensweise zu entscheiden. Nach einer Darstellung des Phänomens und seiner Problematik in Kapitel 1 wird in Kapitel 2 auf die Vielfalt der Bezeichnungsweisen und Forschungsansätze in diesem Bereich eingegangen, wie sie sich vor dem Hintergrund der heutigen Literaturlage im Wesentlichen in den so genannten "Migrationsländern" USA, Australien, Kanada, Südafrika und Schweden aus der praktischen Notwendigkeit heraus entwickelt hat. Kapitel 3 widmet sich der aktuellen kontrovers diskutierten Rollenproblematik im Bereich des Community Interpreting, wobei insbesondere auf den Gegensatz der beiden grundsätzlich konträren Aktionsmöglichkeiten, der "verbatim" und der Kulturmittelnden, "mediatorischen" Dolmetschung, eingegangen wird. Der Unterschied in der Vorgehensweise liegt dabei darin, dass beim "verbatim" Dolmetschen möglichst nahe am Original gedolmetscht wird (z.B. bei Gerichtsverhandlungen und polizeilichen Verhören) und andererseits beim mediatorischen Dolmetschen die relativ aktive Dolmetschung im Vordergrund steht (z.B. beim Krankenhaus- und Behördendolmetschen). Auf der Basis dieser Rollenproblematik wird in Kapitel 4 das Community Interpreting in den theoretischen Rahmen der Diskursanalyse gestellt und das Verständnis des Begriffs Diskursdolmetschen in der vorliegenden Arbeit dargelegt. Dafür ist grundsätzlich, dass in der Dolmetsch-Triade von einem kooperativen, zielorientierten Verhalten aller Kommunikationspartner ausgegangen werden muss und die DolmetscherIn als "dritter" Kommunikationspartner gleichberechtigt mit den primären Kommunikationspartnern für den Erfolg der Kommunikation durch Herstellung der Kohärenz im bi- oder multikulturellen Diskurs mit-verantwortlich ist. Ausgehend von diesem Grundverständnis werden in Kapitel 5 die Handlungsparameter zusammengestellt, die in den beiden Verhaltensweisen ("verbatim" vs "mediatorisch") unterschiedlich sind. Dabei werden statische und dynamische Parameter unterschieden und die Dolmetschsequenz auf eine Tetrade als dynamischem Wechsel der Botschaften zwischen den Kommunikationspartnern A und B und der Dolmetschung dieser Botschaften durch den Dolmetscher I festgelegt. Es wird angenommen, dass eine Originalbotschaft M durch die Filter "Diskurszweck", "Kohärenz" (unterteilt in "thematische" und "isotopische Kontinuität"), "Weltwissen" und individuelle ad hoc "Interessenlage" zu einer gedolmetschten Varianten M' als Null-Botschaft (TYP I), partiell variante Botschaft (TYP II und TYP III) in zwei Ausprägungen (Kategorie 1 und 2), variante "'mediatorische" Botschaft (TYP IV) und als invariante Botschaft (TYP V) gefiltert wird. Die Filter werden entsprechend bezeichnet.Filter und Varianten werden in einem Entscheidungsbaum dargestellt und die Bedingungen für die verschiedenen Outputvarianten M' beschrieben. So wird das Zusammenspiel von statischen und dynamischen Parametern in der aktuellen Dolmetschsituation über die Annahme verschiedener Diskursdolmetschfilter modellierbar. Diese Modellierung wird als Triadic Discourse Interpreting Model (TRIM) bezeichnet. So kann die Dolmetscherin in der konkreten Situation ad hoc entscheiden, inwiefern eine "verbatim" Dolmetschung oder eine mediatorische Dolmetschung vonnöten ist. In Kapitel 6 wird das Modell auf eine chinesisch-englische Dolmetschung vor Gericht angewendet, die von der Hong Kong Baptist University zur Verfügung gestellt wurde. Dabei wird deutlich, wie unterschiedlich die Dolmetschung von Einzelaussagen in einer in der. Regel als "verbatim" Dolmetschsituation betrachteten der Gesamthandlung des Gerichtsdiskurses (Kreuzverhör) ausfallen kann. Die sich ergebenden Varianten werfen ein Licht auf Kenntnisstand und Entscheidungsspielraum der Dolmetscherin und belegen so die Anwendbarkeit des vorgelegten Modells. In einem Schlusskapitel wird das Ergebnis zusammengefasst und Perspektiven für die Forschung, Didaktik und Praxis entworfen. Im Anhang wird das transkribierte Original und Verdolmetschung der Gerichtsverhandlung mit wörtlicher Übersetzung der chinesischen Passagen in das Englische vorgelegt.
2011-01-05
2017-07-12T07:36:19Z
2011-01-05
2008
2011-08-24
doc-type:doctoralThesis
urn:nbn:de:bsz:291-scidok-34821
hdl:20.500.11880/23612
http://dx.doi.org/10.22028/D291-23556
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/236152019-01-10T07:40:04Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:doctoralThesisdoc-type:ResearchDataciminterface:dnbddc:620
Modelling the nonstationarity of speech in the maximum negentropy beamformer
Die Modellierung der Zeitabhängigkeit von Sprache im Maximum Negentropy Beamformer
Rauch, Barbara
Klakow, Dietrich
ddc:400
Automatische Spracherkennung
Sensor-Array
Rauschunterdrückung
Adaptive Signalverarbeitung
Beamforming
Strahlformung
Mikrofonarray
beamforming
microphone array
State-of-the-art automatic speech recognition (ASR) systems can achieve very low word error rates (WERs) of below 5% on data recorded with headsets. However, in many situations such as ASR at meetings or in the car, far field microphones on the table, walls or devices such as laptops are preferable to microphones that have to be worn close to the user's mouths. Unfortunately, the distance between speakers and microphones introduces significant noise and reverberation, and as a consequence the WERs of current ASR systems on this data tend to be unacceptably high (30-50% upwards). The use of a microphone array, i.e. several microphones, can alleviate the problem somewhat by performing spatial filtering: beamforming techniques combine the sensors' output in a way that focuses the processing on a particular direction. Assuming that the signal of interest comes from a different direction than the noise, this can improve the signal quality and reduce the WER by filtering out sounds coming from non-relevant directions. Historically, array processing techniques developed from research on non-speech data, e.g. in the fields of sonar and radar, and as a consequence most techniques were not created to specifically address beamforming in the context of ASR. While this generality can be seen as an advantage in theory, it also means that these methods ignore characteristics which could be used to improve the process in a way that benefits ASR. An example of beamforming adapted to speech processing is the recently proposed maximum negentropy beamformer (MNB), which exploits the statistical characteristics of speech as follows. "Clean" headset speech differs from noisy or reverberant speech in its statistical distribution, which is much less Gaussian in the clean case. Since negentropy is a measure of non-Gaussianity, choosing beamformer weights that maximise the negentropy of the output leads to speech that is closer to clean speech in its distribution, and this in turn has been shown to lead to improved WERs [Kumatani et al., 2009]. In this thesis several refinements of the MNB algorithm are proposed and evaluated. Firstly, a number of modifications to the original MNB configuration are proposed based on theoretical or practical concerns. These changes concern the probability density function (pdf) used to model speech, the estimation of the pdf parameters, and the method of calculating the negentropy. Secondly, a further step is taken to reflect the characteristics of speech by introducing time-varying pdf parameters. The original MNB uses fixed estimates per utterance, which do not account for the nonstationarity of speech. Several time-dependent variance estimates are therefore proposed, beginning with a simple moving average window and including the HMM-MNB, which derives the variance estimate from a set of auxiliary hidden Markov models. All beamformer algorithms presented in this thesis are evaluated through far-field ASR experiments on the Multi-Channel Wall Street Journal Audio-Visual Corpus, a database of utterances captured with real far-field sensors, in a realistic acoustic environment, and spoken by real speakers. While the proposed methods do not lead to an improvement in ASR performance, a more efficient MNB algorithm is developed, and it is shown that comparable results can be achieved with significantly less data than all frames of the utterance, a result which is of particular relevance for real-time implementations.
Automatische Spracherkennungssysteme können heutzutage sehr niedrige Wortfehlerraten (WER) unter 5% erreichen, wenn die Sprachdaten mit einem Headset oder anderem Nahbesprechungsmikrofon aufgezeichnet wurden. Allerdings hat das Tragen eines mundnahen Mikrofons in vielen Situationen, wie z.B. der Spracherkennung im Auto oder während einer Besprechung, praktische Nachteile, und ein auf dem Tisch, an der Wand oder am Laptop befestigtes Mikrofon wäre in dem Fall vorteilhaft. Bei einer größeren Distanz zwischen Mikrofon und Sprecher werden andererseits aber verstärkt Hintergrundgeräusche und Hall aufgenommen, wodurch die Wortfehlerraten häufig in einen unakzeptablen Bereich von 30—50% und höher steigen. Ein Mikrofonarray, d.h. eine Gruppe von Mikrofonen, kann hierbei durch räumliches Filtern in gewissem Maße Abhilfe schaffen: sogenannte Beamforming-Methoden können die Daten der einzelnen Sensoren so kombinieren, dass der Fokus auf eine bestimmte Richtung gerichtet wird. Wenn nun ein Zielsignal aus einer anderen Richtung als die Störgeräusche kommt, kann dieser Prozess die Signalqualität erhöhen und WER-Werte reduzieren, indem die Geräusche aus den nicht-relevanten Richtungen herausgefiltert werden. Da Beamforming-Techniken sich aus der Forschung an nicht-sprachlichen Daten wie Sonar und Radar entwickelt haben, sind die wenigsten Methoden in diesem Bereich speziell auf das Problem der Spracherkennung ausgerichtet. Während eine Anwendungsunabhängigkeit von Vorteil sein kann, bedeutet sie aber auch, dass Eigenschaften der Spracherkennung ignoriert werden, die zur Verbesserung des Ergebnisses genutzt werden könnten. Ein Beispiel für einen Beamforming-Algorithmus, der speziell für die Verarbeitung von Sprache entwickelt wurde, ist der Maximum Negentropy Beamformer (MNB). Der MNB nutzt die Tatsache, dass "saubere" Sprache, die mit einem Nahbesprechungsmikrofon aufgenommen wurde, eine andere Wahrscheinlichkeitsverteilung aufweist als verrauschte oder verhallte Sprache: Die Verteilung sauberer Sprache unterscheidet sich von der Normalverteilung sehr viel stärker als die von fern aufgezeichneter Sprache. Der MNB wählt Beamforming-Gewichte, die den Negentropy-Wert maximieren, und da Negentropy misst, wie sehr sich eine Verteilung von der Normalverteilung unterscheidet, ähnelt die vom MNB produzierte Sprache statistisch gesehen sauberer Sprache, was zu verbesserten WER-Werten geführt hat [Kumatani et al., 2009]. Das Thema dieser Dissertation ist die Entwicklung und Evaluierung von verschiedenen Modifikationen des MNB. Erstens wird eine Anzahl von praktisch und theoretisch motivierten Veränderungen vorgeschlagen, die die Form der Wahrscheinlichkeitsverteilung zur Sprachmodellierung, die Schätzung der Parameter dieser Verteilung und die Berechnung der Negentropy-Werte betreffen. Zweitens wird ein weiterer Schritt zur Berücksichtigung der Eigenschaften von Sprache unternommen, indem die Zeitabhängigkeit der Verteilungsparameter eingeführt wird; im ursprünglichen MNB-Algorithmus sind diese für eine Äußerung konstant, was im Gegensatz zur nicht-konstanten Eigenschaft von Sprache steht. Mehrere zeitabhängige Varianz-Schätzungmethoden werden beschrieben und evaluiert, von einem einfachen gleitenden Durchschnittswert bis zum komplexeren HMM-MNB, der die Varianz aus Hidden-Markov-Modellen ableitet. Alle Beamforming-Algorithmen, die in dieser Arbeit vorgestellt werden, werden durch Spracherkennungsexperimente mit dem Multi-Channel Wall Street Journal Audio-Visual Corpus evaluiert. Dieser Korpus wurde nicht durch Simulation erstellt, sondern besteht aus Äußerungen von Personen, die mit echten Sensoren in einer realistischen akustischen Umgebung aufgenommen wurden. Die Ergebnisse zeigen, dass mit den bisher entwickelten Methoden keine Verbesserung der Wortfehlerrate erreicht werden kann. Allerdings wurde ein effizienterer MNB-Algorithmus entwickelt, der vergleichbare Erkennungsraten mit deutlich weniger Sprachdaten erreichen kann, was vor allem für eine Echtzeitimplementierung relevant ist.
2011-04-15
2017-07-12T07:36:19Z
2011-04-15
2010
doc-type:doctoralThesis
urn:nbn:de:bsz:291-scidok-34747
hdl:20.500.11880/23615
http://dx.doi.org/10.22028/D291-23559
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/236202019-01-10T07:40:04Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:bookdoc-type:ResearchDataciminterface:dnbddc:620
Anschaulichkeit in deutschen und französischen Werbeanzeigen : Entwurf eines übersetzungsrelevanten Textanalysemodells
Weber, Anne
ddc:400
Übersetzung
Saarbrücken / Universität / Fachrichtung Angewandte Sprachwissenschaft sowie Übersetzen und Dolmetschen
Anzeigenwerbung
Textanalyse
Anschaulichkeit
Text-Bild-Kombinationen
Werbesprachforschung
Die Werbesprachforschung ist ein weites Feld, dem in der Linguistik auf unterschiedlichen Ebenen immer wieder Aufmerksamkeit gewidmet wird. Viele Untersuchungen behandeln jedoch lediglich eine Einzelsprache, und allzu oft werden die in einem Text vorhandenen bildlichen Elemente nicht oder nur am Rande in die Analysen miteinbezogen. Ziel der vorliegenden Studie ist die Ausarbeitung eines übersetzungsrelevanten Textanalysemodells, mit dem das Zusammenwirken textueller, bildlicher und ggf. weiterer Elemente untersucht werden kann. Hierfür werden zunächst gründliche Diskussionen der zentralen Begriffe "Werbeanzeige" und "Anschaulichkeit" geliefert. Auch kulturbezogene Überlegungen sowie die Vorstellung einiger ausgewählter Typen von Werbeanzeigen finden ihren Raum. Das vorgeschlagene Analysemodell wird schließlich auf jeweils elf deutsche und französische Werbeanzeigen angewendet, um herauszufinden, wie in dieser Textsorte durch gezielte Text-Bild-Kombinationen Anschaulichkeit hergestellt wird. Insgesamt soll die Studie als Ausgangspunkt für weitere Untersuchungen von Text-Bild-Kombinationen auch in anderen Textsorten dienen.
2011-09-14
2017-07-12T07:36:25Z
2011-09-14
2011
2011-09-14
doc-type:book
urn:nbn:de:bsz:291-scidok-43038
hdl:20.500.11880/23620
http://dx.doi.org/10.22028/D291-23564
ger
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/236482019-01-10T07:40:05Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:truedoc-type:articleddc:400open_accessdoc-type:ResearchDataciminterface:dnbddc:620
Autothematische Dichtung als Konfrontation : zur Systematik literarischer Selbstdarstellung
Schmeling, Manfred
ddc:400
Selbstdarstellung <Motiv>
Literatur
2012-02-14
2017-07-12T07:36:32Z
2012-02-14
1978
doc-type:article
urn:nbn:de:bsz:291-scidok-46109
hdl:20.500.11880/23648
http://dx.doi.org/10.22028/D291-23592
ger
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/236502019-01-10T07:40:05Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:doctoralThesisdoc-type:ResearchDataciminterface:dnbddc:620
Extraction of ontology schema components from financial news
Extraktion von Ontologiekomponenten aus Finanznachrichten
Vela, Mihaela
Uszkoreit, Hans
ddc:400
Ontologie <Wissensverarbeitung>
Wissensextraktion
Wissensverarbeitung
Ontologieextraktion
ontology learning
ontology building
knowledge extraction
In this thesis we describe an incremental multi-layer rule-based methodology for the extraction of ontology schema components from German financial newspaper text. By Extraction of Ontology Schema Components we mean the detection of new concepts and relations between these concepts for ontology building. The process of detecting concepts and relations between these concepts corresponds to the intensional part of an ontology and is often referred to as ontology learning. We present the process of rule generation for the extraction of ontology schema components as well as the application of the generated rules.
In dieser Arbeit beschreiben wir eine inkrementelle mehrschichtige regelbasierte Methode für die Extraktion von Ontologiekomponenten aus einer deutschen Wirtschaftszeitung. Die Arbeit beschreibt sowohl den Generierungsprozess der Regeln für die Extraktion von ontologischem Wissen als auch die Anwendung dieser Regeln. Unter Extraktion von Ontologiekomponenten verstehen wir die Erkennung von neuen Konzepten und Beziehungen zwischen diesen Konzepten für die Erstellung von Ontologien. Der Prozess der Extraktion von Konzepten und Beziehungen zwischen diesen Konzepten entspricht dem intensionalen Teil einer Ontologie und wird im Englischen Ontology Learning genannt. Im Deutschen enspricht dies dem Lernen von Ontologien.
2012-02-22
2017-07-12T07:36:32Z
2012-02-22
2012
doc-type:doctoralThesis
urn:nbn:de:bsz:291-scidok-47060
hdl:20.500.11880/23650
http://dx.doi.org/10.22028/D291-23594
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/236622019-01-10T07:40:04Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:doctoralThesisdoc-type:ResearchDataciminterface:dnbddc:620
Cross-lingual question answering
Sprachübergreifende Fragebeantwortung
Sacaleanu, Bogdan Eugen
Uszkoreit, Hans
ddc:400
Frage-Antwort-System
Information-Retrieval-System
Sprachverarbeitung
question answering
cross-lingual
Question Answering has become an intensively researched area in the last decade, being seen as the next step beyond Information Retrieval in the attempt to provide more concise and better access to large volumes of available information. Question Answering builds on Information Retrieval technology for a first touch of possible relevant data and uses further natural language processing techniques to search for candidate answers and to look for clues that accept or invalidate the candidates as right answers to the question. Though most of the research has been carried out in monolingual settings, where the question and the answer-bearing documents share the same natural language, current approaches concentrate on cross-language scenarios, where the question and the documents are in different languages. Known in this context and common with the Information Retrieval research are three methods of crossing the language barrier: by translating the question, by translating the documents or by aligning both the question and the documents to a common inter-lingual representation. We present a cross-lingual English to German Question Answering system, for both factoid and definition questions, using a German monolingual system and translating the questions from English to German. Two different techniques of translation are evaluated:
• direct translation of the English input question into German and
• transfer-based translation, by using an intermediate representation that captures the “meaning” of the original question and is translated into the target language.
For both translation techniques two types of translation tools are used: bilingual dictionaries and machine translation. The intermediate representation captures the semantic meaning of the question in terms of Question Type (QType), Expected Answer Type (EAType) and Focus, information that steers the workflow of the question answering process.
The German monolingual Question Answering system can answer both factoid and definition questions and is based on several premises:
• facts and definitions are usually expressed locally at the level of a sentence and its surroundings;
• proximity of concepts within a sentence can be related to their semantic dependency;
• for factoid questions, redundancy of candidate answers is a good indicator of their suitability;
• definitions of concepts are expressed using fixed linguistic structures such as appositions, modifiers, and abbreviation extensions.
Extensive evaluations of the monolingual system have shown that the above mentioned hypothesis holds true in most of the cases when dealing with a fairly large collection of documents, like the one used in the CLEF evaluation forum.
Innerhalb der letzten zehn Jahre hat sich Question Answering zu einem intensiv erforschten Themengebiet gewandelt, es stellt den nächsten Schritt des Information Retrieval dar, mit dem Bestreben einen präziseren Zugang zu großen Datenbeständen von verfügbaren Informationen bereitzustellen. Das Question Answering setzt auf die Information Retrieval-Technologie, um mögliche relevante Daten zu suchen, kombiniert mit weiteren Techniken zur Verarbeitung von natürlicher Sprache, um mögliche Antwortkandidaten zu identifizieren und diese anhand von Hinweisen oder Anhaltspunkten entsprechend der Frage als richtige Antwort zu akzeptieren oder als unpassend zu erklären. Während ein Großteil der Forschung den einsprachigen Kontext voraussetzt, wobei Frage- und Antwortdokumente ein und dieselbe Sprache teilen, konzentrieren sich aktuellere Ansätze auf sprachübergreifende Szenarien, in denen die Frage- und Antwortdokumente in unterschiedlichen Sprachen vorliegen. Im Kontext des Information Retrieval existieren drei bekannte Ansätze, die versuchen auf unterschiedliche Art und Weise die Sprachbarriere zu überwinden: durch die Übersetzung der Frage, durch die Übersetzung der Dokumente oder durch eine Angleichung von sowohl der Frage als auch der Dokumente zu einer gemeinsamen interlingualen Darstellung. Wir präsentieren ein sprachübergreifendes Question Answering System vom Englischen ins Deutsche, das sowohl für Faktoid- als auch für Definitionsfragen funktioniert. Dazu verwenden wir ein einsprachiges deutsches System und übersetzen die Fragen vom Englischen ins Deutsche. Zwei unterschiedliche Techniken der Übersetzung werden untersucht:
• die direkte Übersetzung der englischen Fragestellung ins Deutsche und
• die Abbildungs-basierte Übersetzung, die eine Zwischendarstellung verwendet, um die „Semantik“ der ursprünglichen Frage zu erfassen und in die Zielsprache zu übersetzen.
Für beide aufgelisteten Übersetzungstechniken werden zwei Übersetzungsquellen verwendet: zweisprachige Wörterbücher und maschinelle Übersetzung. Die Zwischendarstellung erfasst die Semantik der Frage in Bezug auf die Art der Frage (QType), den erwarteten Antworttyp (EAType) und Fokus, sowie die Informationen, die den Ablauf des Frage-Antwort-Prozesses steuern.
Das deutschsprachige Question Answering System kann sowohl Faktoid- als auch Definitionsfragen beantworten und basiert auf mehreren Prämissen:
• Fakten und Definitionen werden in der Regel lokal auf Satzebene ausgedrückt;
• Die Nähe von Konzepten innerhalb eines Satzes kann auf eine semantische Verbindung hinweisen;
• Bei Faktoidfragen ist die Redundanz der Antwortkandidaten ein guter Indikator für deren Eignung;
• Definitionen von Begriffen werden mit festen sprachlichen Strukturen ausgedrückt, wie Appositionen, Modifikatoren, Abkürzungen und Erweiterungen.
Umfangreiche Auswertungen des einsprachigen Systems haben gezeigt, dass die oben genannten Hypothesen in den meisten Fällen wahr sind, wenn es um eine ziemlich große Sammlung von Dokumenten geht, wie bei der im CLEF Evaluationsforum verwendeten Version.
2012-03-19
2017-07-12T07:36:34Z
2012-03-19
2012
doc-type:doctoralThesis
urn:nbn:de:bsz:291-scidok-47820
hdl:20.500.11880/23662
http://dx.doi.org/10.22028/D291-23606
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/236642019-01-10T07:40:04Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:truedoc-type:articleddc:400open_accessdoc-type:ResearchDataciminterface:dnbddc:620
Blackboardmodelle für die Analyse natürlicher Sprachen : (am Beispiel der Analyse von Relativsätzen)
Luckhardt, Heinz-Dirk
ddc:400
Sprachverarbeitung
Computerlinguistik
Natürliche Sprache
Stratifikation von Analyseprozessen gilt manchem (Computer-) Linguisten als Beweis für die Rückständigkeit von Parsern. Dabei denken die meisten an Systeme, in denen die Analyse in sequentiell ablaufende Analyseschritte (= Pass) aufgeteilt ist, die in ihrer Abfolge festliegen, voneinander nicht unmittelbar Notiz nehmen, und evtll. voreilige Entscheidungen fällen, weil sie nicht genügend Informationen haben. Diese Strategie entspricht dem Stand der Wissenschaft zu der Zeit, als diese Systeme in die Entwicklung gingen, und ermöglicht einen gewissen Prozentsatz an korrekten Analysen (je nach Gegebenheiten bis zu 90%), der für bestimmte Zwecke ausreicht (aus der Sicht der Anwender) bzw. zu einer gewissen Fehlerquote führt, die es zu verringern gilt (aus der Sicht der Wissenschaft).
2012-06-28
2017-07-12T07:36:35Z
2012-06-28
1985
doc-type:article
3-922441-46-7
urn:nbn:de:bsz:291-scidok-47920
hdl:20.500.11880/23664
http://dx.doi.org/10.22028/D291-23608
ger
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/236662019-01-10T07:40:05Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:truedoc-type:articleddc:400open_accessdoc-type:ResearchDataciminterface:dnbddc:620
Informieren und Präsentieren : Hypertext als Publikationsmedium
Luckhardt, Heinz-Dirk
ddc:400
Hypertext
Datenverarbeitung
2012-07-27
2017-07-12T07:36:35Z
2012-07-27
1993
doc-type:article
3-631-46947-0
urn:nbn:de:bsz:291-scidok-47948
hdl:20.500.11880/23666
http://dx.doi.org/10.22028/D291-23610
ger
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/236732019-01-10T07:40:04Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:doctoralThesisdoc-type:ResearchDataciminterface:dnbddc:620
Word meaning in context : a probabilistic model and its application to question answering
Dinu, Georgiana
Pinkal, Manfred
ddc:400
Computerlinguistik
Semantik
Maschinelles Lernen
computational linguistics
semantics
machine learning
The need for assessing similarity in meaning is central to most language technology applications. Distributional methods are robust, unsupervised methods which achieve high performance on this task. These methods measure similarity of word types solely based on patterns of word occurrences in large corpora, following the intuition that similar words occur in similar contexts. As most Natural Language Processing (NLP) applications deal with disambiguated words, words occurring in context, rather than word types, the question of adapting distributional methods to compute sense-specific or context-sensitive similarities has gained increasing attention in recent work. This thesis focuses on the development and applications of distributional methods for context-sensitive similarity. The contribution made is twofold: the main part of the thesis proposes and tests a new framework for computing similarity in context, while the second part investigates the application of distributional paraphrasing to the task of question answering.
Die Notwendigkeit der Beurteilung von Bedeutungsähnlichkeit spielt für die meisten sprachtechnologische Anwendungen eine wesentliche Rolle. Distributionelle Verfahren sind solide, unbeaufsichtigte Verfahren, die für diese Aufgabe sehr effektiv sind. Diese Verfahren messen die Ähnlichkeit von Wortarten lediglich auf Basis von Mustern, nach denen die Wörter in großen Korpora vorkommen, indem sie der Erkenntnis folgen, dass ähnliche Wörter in ähnlichen Kontexten auftreten. Da die meisten Anwendungen im Natural Language Processing (NLP) mit eindeutigen Wörtern arbeiten, also eher Wörtern, die im Kontext vorkommen, als Wortarten, hat die Frage, ob distributionelle Verfahren angepasst werden sollten, um bedeutungsspezifische oder kontextabhängige Ähnlichkeiten zu berechnen, in neueren Arbeiten zunehmend an Bedeutung gewonnen. Diese Dissertation konzentriert sich auf die Entwicklung und Anwendungen von distributionellen Verfahren für kontextabhängige Ähnlichkeit und liefert einen doppelten Beitrag: Den Hauptteil der Arbeit bildet die Präsentation und Erprobung eines neuen framework für die Berechnung von Ähnlichkeit im Kontext. Im zweiten Teil der Arbeit wird die Anwendung des distributional paraphrasing auf die Aufgabe der Fragenbeantwortung untersucht.
2012-12-10
2017-07-12T07:36:37Z
2012-12-10
2011
doc-type:doctoralThesis
urn:nbn:de:bsz:291-scidok-50031
hdl:20.500.11880/23673
http://dx.doi.org/10.22028/D291-23617
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/236812019-01-10T07:40:05Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:doctoralThesisdoc-type:ResearchDataciminterface:dnbddc:620
Die Erhebung perzeptueller Prominenz auf Silben- und Wortebene : der Einfluss von Bewertungsskalen, Bewertungsebenen und Normalisierung
Obtaining perceptual word and syllable prominence : the influence of rating scales, linguistic levels and normalization
Arnold, Denis
Möbius, Bernd
ddc:400
Phonetik
Prosodie
Wahrnehmung
Prosodische Prominenz
phonetics
prosody
perception
prosodic prominence
Die vorliegende Dissertation beschäftigt sich mit verschieden Methoden zur Erhebung von perzeptuellen Prominenzurteilen von naiven Hörern im Deutschen. Es werden zwei Experimente vorgestellt, die sich zum einen mit der Verwendung von verschiedenen Skalen, zum anderen mit der Verwendung von unterschiedlichen Bewertungsebenen zur Beurteilung von perzeptueller Prominenz beschäftigen. Die Ergebnisse zeigen, dass Ergebnisse von Studien, welche auf unterschiedlichen Erhebungstechniken beruhen nicht ohne weiteres vergleichbar sind. Die Arbeit untersucht außerdem die Effekte einer Normalisierung der Prominenzurteile. Die Dissertation schließt mit einem Ausblick für zukünftige Studien. Hierbei werden hauptsächlich die vielfältigen Interaktionen von verschiedenen Quellen und dem Kontext bei der Beurteilung der perzeptuellen Prominenz adressiert.
This dissertation investigates different methods for obtaining prosodic prominence judgements from naive listeners in German. It presents two experiments exploring the use of different rating scales and linguistic levels for rating perceptual prominence. These results provide evidence that findings from studies using different rating scales or different levels of annotation cannot be compared in an easy, straightforward way. Finally the benefits of using a normalization procedure on the prominence ratings are explored. The dissertation concludes with an outline for future work mainly targeting the manifold interactions between different cues and contexts on prosodic prominence.
2013-11-12
2017-07-12T07:36:40Z
2013-11-12
2013
doc-type:doctoralThesis
urn:nbn:de:bsz:291-scidok-55529
hdl:20.500.11880/23681
http://dx.doi.org/10.22028/D291-23625
ger
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/236822019-01-10T07:40:05Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:doctoralThesisdoc-type:ResearchDataciminterface:dnbddc:620
Sprachlicher Ausbau in gesprochenen und geschriebenen Texten : zum Gebrauch komplexer Nominalphrasen als Merkmale literater Strukturen bei Jugendlichen mit Deutsch als Erst- und Zweitsprache in verschiedenen Schulformen
Linguistic expansion in spoken and written texts : on the use of complex noun phrases as characteristic of literate structures in adolescents with German as a first and second language in different types of schools
Siekmeyer, Anne
Haberzettl, Stefanie
ddc:400
Soziolinguistik
Fremdsprache
Schriftlichkeit
Nominalphrase
Korpus <Linguistik>
Deutsch als Zweitsprache
gesprochene und geschriebene Sprache
literate Strukturen
Register
literacy
sociolingustics
German as a second language
noun phrase
corpus linguistics
Viele Schüler haben Schwierigkeiten, sich im formellen Register, das durch das Schriftliche repräsentiert wird, angemessen auszudrücken. Dies gilt nicht nur für Schüler mit Deutsch als Zweitsprache, denn oft erwerben Seiteneinsteiger, die in einer anderen Sprache literarisiert wurden, die literaten Strukturen des Deutschen recht schnell. Die Grundannahmen, auf denen die vorliegende Arbeit aufbaut, lauten: Die Fähigkeit zur Registerdifferenzierung, die von Erfahrungs- und Bildungsmöglichkeiten des Elternhauses beeinflusst wird, ist die Voraussetzung für den Ausbau literater Strukturen. Schüler, die in ihrer Erstsprache bereits literate Strukturen erworben haben, können diese in ihrer Zweitsprache einfacher erwerben. Außerdem wird angenommen, dass diese Fähigkeit den Besuch höher qualifizierender Schulformen ermöglicht.
Zur Überprüfung dieser Annahmen wurde ein Korpus mit mündlichen und schriftlichen Nacherzählungen von dreißig 15/16jährigen Schülern mit Deutsch als Erstsprache und Bildungsinländern und Seiteneinsteigern mit Russisch als Erstsprache erstellt. Sie besuchten sowohl das Gymnasium als auch die Real- und Hauptschule. Mit den Jugendlichen wurden ausführliche Interviews zur Sprach- und Schulbiografie sowie zum sozioökonomischen Hintergrund geführt.
Gemäß der Skala literater Komplexitätsstufen wird der Ausbau von Nominalphrasen als weit fortgeschritten eingeordnet. Eine Korpusüberprüfung bestätigte die Annahme, dass komplexe Nominalphrasen die größte Hürde im Ausbau literater Strukturen darstellen. Auf Basis ihres Gebrauchs in den mündlichen und schriftlichen Texten sowie den Informationen aus den Interviews zu Lese- und Schreibverhalten und dem Familienleben wurde ein Modell struktureller Kategorien des sprachlichen Ausbaus gebildet, das Grundlage für die Überprüfung der Hypothesen war.
Es zeigte sich, dass die Fähigkeit zur Registerdifferenzierung tatsächlich Voraussetzung für den Erwerb literater Strukturen ist und durch Erfahrungs- und Bildungsmöglichkeiten beeinflusst wird. Dieser Faktor spielt beim Erwerb der literaten Strukturen der Zweitsprache eine größere Rolle als die Erstsprache. Er scheint jedoch keine positive Auswirkung auf den Schulerfolg zu haben.
Many adolescent students have difficulty in adequately express in the formal register, which is represented by the written. This applies not only for students with German as a second language, because often aquire beginners who were literalized in another language, the literate structures of the German fairly quickly. The basic assumptions of the present work is, according to Maas (2007/2010): The ability to register differentiation, which is influenced by possibilities for experiences and education of the parental home, is the prerequisite for the expansion of literate structures. Adolescents who have already acquired literate structures in their first language, can easily acquire these in their second language. It is also assumed that the ability to register differentiation allows the visit of higher qualifying school forms.
To verify these assumptions a corpus with oral and written retellings of thirty 15/16 year old students with German as their first language and students with Russian as their first language, of whom one part has been literalized in German (Bildungsinländer) and another in Russian (Seiteneinsteiger), was created. The adolescents visited the highschool (Gymnasium) as well as the secondary schools (Real- und Hauptschule). With the students in-depth interviews were conducted for speech biography, school biography, and socioeconomic background.
According to the scale of literate complexity levels (Maas 2010), the expansion of noun phrases is classified as advanced. A corpus review confirmed the assumption that complex noun phrases represent the biggest hurdle in the development of literater structures. On the basis of their use in the oral and written texts as well as the information from the interviews about read and write behavior and family life, a model of structural categories of linguistic development was formed, which was the basis for the verification of hypotheses.
It was found that the ability to register differentiation is a prerequisite for the acquisition of literate structures and is influenced by the possibilities for experiences and education. This factor in the acquisition of literate structures of the second language is more important than the first language. However, he seems to have no positive impact on school success.
2013-12-09
2017-07-12T07:36:40Z
2013-12-09
2013
doc-type:doctoralThesis
urn:nbn:de:bsz:291-scidok-55863
hdl:20.500.11880/23682
http://dx.doi.org/10.22028/D291-23626
ger
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/236832019-01-10T07:40:04Zcom_20.500.11880_2com_20.500.11880_6105col_20.500.11880_3col_20.500.11880_6107has-source-swb:truedoc-type:articleddc:400open_accessdoc-type:ResearchDataciminterface:dnbddc:620
German pupils’ awareness of English-French cognates and false friends : an investigation of L2 to L3 transfer
Brunner, Marie-Louise B.
Ankerstein, Carrie A.
ddc:400
Linguistik
Fremdsprachenlernen
Kognat <Linguistik>
L2 zu L3 Transfer
Kognate
falsche Freunde
Zweitspracherwerb
Interkomprehension
contrastive analysis hypothesis
L2 to L3 transfer
cognates
false friends
second language acquisition
intercomprehension
The Contrastive Analysis Hypothesis (CAH) proposes that similarities and differences between a first (L1) and second (L2) language may lead to positive and negative transfer, respectively. An experiment exploring recognition of cognates and false friends was conducted to investigate lexical transfer for German native speakers learning English and French. Differences in recognition accuracies of cognates and false friends were found, indicating that cognates were easier for learners to identify than false friends. These findings suggest that CAH can be extended to include transfer from L2 to L3 and that, in accordance with intercomprehension theories, a facilitation effect can be found between English and French in particular.
Dieser Artikel befasst sich mit der Erkennungsgenauigkeit, mit der deutsche Schüler englisch-französische Kognate und falsche Freunde erkennen. Das durchgeführte Experiment untersucht den lexikalischen L2-L3 Transfer anhand von Kognaten und falschen Freunden als mögliche Unterrichtsmethode im Englisch- und Französischunterricht für deutsche Muttersprachler. Unterschiede in der Erkennungsgenauigkeit konnten identifiziert werden, die darauf hindeuten, dass Kognate leichter zu identifizieren sind als falsche Freunde. Die Untersuchungsergebnisse deuten darauf hin, dass Contrastive Analysis Hypothesis vom L1-L2 Transfer auf den L2-L3 Transfer übertragen werden kann, indem sie, in Übereinstimmung mit Interkomprehensionstheorien, weitere Anhaltspunkte für das Auftreten eines vereinfachenden Effekts in Bezug auf das Erkennen lexikalischer Gemeinsamkeiten zwischen Englisch und Französisch liefern.
2013-12-13
2017-07-12T07:36:40Z
2013-12-13
2013
doc-type:article
urn:nbn:de:bsz:291-scidok-55959
hdl:20.500.11880/23683
http://dx.doi.org/10.22028/D291-23627
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/236842019-01-10T07:40:05Zcom_20.500.11880_2com_20.500.11880_6105col_20.500.11880_3col_20.500.11880_6107has-source-swb:truedoc-type:articleddc:400open_accessdoc-type:ResearchDataciminterface:dnbddc:620
Do you hear what I hear? : a comparison of phoneme perception in native and Saarlandian German nonnative speakers of English
Ankerstein, Carrie A.
Morschett, Raphael
ddc:400
Linguistik
Assimilation <Phonetik>
Phonologie
Phonologie der Zweitsprache
Assimilation
th-Substitution
Phonemwahrnehmung
second language phonology
assimilation
th-substitutions
phoneme perception
Second language (L2) phonological development is strongly influenced by the first language (L1), with L2 sounds being assimilated into the L1 phonological inventory. It has been argued that phones that are similar in the L1 and L2 will be most difficult to acquire whereas sounds that are not present in the L1 will be easier. In addition, commonly used substitutions in production can affect perception of L2 phonemes. In a forced-choice phoneme discrimination task, we explored how accurately Saarlandian German speakers of L2 English discriminate between /v/ and /w/; dental fricatives versus alveolar stops and fricatives; and initial position consonant cluster voicing. Nonnative speakers performed worst for the /v/-/w/ distinction followed by the dental/alveolar fricative and initial position consonant cluster voicing distinction. We conclude that different assimilation processes occur for these phonological phenomena.
Die phonologische Entwicklung der Zweitsprache (L2) ist stark durch die Erstsprache (L1) beeinflusst, sodass L2 Laute in das phonologische Inventar der Erstsprache assimiliert werden. Es wurde argumentiert, dass Laute, die in der L1 und in der L2 ähnlich sind, am schwierigsten zu erwerben sind, wohingegen Laute, die in der L1 nicht auftauchen, einfacher sind. Des Weiteren können häufig verwendete Substitutionen in der Produktion die Wahrnehmung von L2 Phonemen beeinflussen. In einem Phonemdiskriminationsexperiment mit forcierter Entscheidung haben wir untersucht, wie gut saarländische Deutschmuttersprachler mit Englisch als L2 zwischen /v/ und /w/; dentalen Frikativlauten und Alveolarplosiven und -frikativen; und der Stimmhaftigkeit bei initialen Konsonantclustern unterscheiden können. Nichtmuttersprachler schnitten bei der /v/-/w/-Unterscheidung am schlechtesten ab, gefolgt von der Dental-/Alveolarfrikativunterscheidung und der Stimmhaftigkeitsunterscheidung bei initialen Konsonantclustern. Wir kommen zu dem Schluss, dass bei diesen phonologischen Phänomenen unterschiedliche Assimilationsprozesse stattfinden.
2013-12-13
2017-07-12T07:36:40Z
2013-12-13
2013
doc-type:article
urn:nbn:de:bsz:291-scidok-55947
hdl:20.500.11880/23684
http://dx.doi.org/10.22028/D291-23628
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/236852019-01-10T07:40:05Zcom_20.500.11880_2com_20.500.11880_6105col_20.500.11880_3col_20.500.11880_6107has-source-swb:truedoc-type:articleddc:400open_accessdoc-type:ResearchDataciminterface:dnbddc:620
Creating and maintaining perspectives and identities in narratives with gesture space and gestural handedness
Pereira, Gerardine M.
ddc:400
Linguistik
Gestik
Händigkeit
Erzählungen
Gestikraum
Perspektive
narrative
gesture
gesture space
handedness
perspective
The present article is concerned with the representation of viewpoints and identities in story telling performances. The analysis is based on video recordings of experimentally elicited narratives told during dyadic interactions. It is proposed that gesture, and in particular gesture space and gestural handedness, provide insight into how story tellers create different perspectives and identities while telling a story and how a shift in between telling and narrative frame is represented in catchments as proposed by McNeill 2000.
Diese Studie basiert auf Videoaufnahmen experimentell erhobener Erzählungen, die während dyadischen Interaktionen stattfanden. Der aktuelle Artikel beschäftigt sich mit der Repräsentation von Perspektiven und der Schaffung von Identitäten im Erzählprozess. Gesten, im Speziellen die Verteilung von Gesten im Raum und die gestische Händigkeit, geben Aufschluss darüber, wie Erzähler verschiedene Perspektiven und Identitäten während des Erzählens schaffen und zeigen weiterhin, wie ein Wechsel zwischen den Rahmen des Erzählens und dem Rahmen des Erzählten sich in „catchments“ (McNeill 2000) widerspiegelt.
2013-12-13
2017-07-12T07:36:41Z
2013-12-13
2013
doc-type:article
urn:nbn:de:bsz:291-scidok-55973
hdl:20.500.11880/23685
http://dx.doi.org/10.22028/D291-23629
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/236862019-01-10T07:40:05Zcom_20.500.11880_2com_20.500.11880_6105col_20.500.11880_3col_20.500.11880_6107has-source-swb:trueddc:400open_accessdoc-type:ResearchDataciminterface:dnbdoc-type:workingPaperddc:620
Letter from the SWPL Editors-in-Chief
Ankerstein, Carrie A.
Pereira, Gerardine M.
ddc:400
Linguistik
Letter from the SWPL Editors-in-Chief
2013-12-13
2017-07-12T07:36:41Z
2013-12-13
2013
doc-type:workingPaper
urn:nbn:de:bsz:291-scidok-55931
hdl:20.500.11880/23686
http://dx.doi.org/10.22028/D291-23630
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/236872019-01-10T07:40:05Zcom_20.500.11880_2com_20.500.11880_6105col_20.500.11880_3col_20.500.11880_6107has-source-swb:truedoc-type:articleddc:400open_accessdoc-type:ResearchDataciminterface:dnbddc:620
Whatever happened to the English prefix, and could it stage a comeback? A corpus-based investigation
Diemer, Stefan
ddc:400
Linguistik
Präfix
Computerunterstützte Kommunikation
Partikelverb
Partikelverben
computergestützte Kommunikation
verb-particle combinations
prefix
computer-mediated communication
This paper revisits the historical shift in English verb-particle combinations from prefixed to prepositional and adverbial forms based on qualitative and quantitative examples. It is argued that the reasons for the disappearance of the English prefix are more complex than previously thought. The paper proposes a combination of competition-based and systemic reasons while allowing for additional influence by other developments, such as verb frequency and spelling habits. A corpus-based study shows that the development is not irreversible, since due to the influence of computer-mediated communication there may be a revival of prefix verbs modelled after Old English templates.
Der Artikel befasst sich mit dem Wandel der englischen Partikelverben von präfigierten zu präpositionalen und adverbialen Formen auf der Basis qualitativer und quantitativer Beispiele. Es wird argumentiert, dass die Gründe für das Verschwinden des englischen Präfixes komplexer sind als bisher dargestellt. Der Artikel schlägt eine Kombination von wettbewerbsbasierten und systemischen Faktoren unter Berücksichtigung anderer Entwicklungen vor, wie Verbhäufigkeit und Rechtschreibgewohnheiten. Eine korpusbasierte Studie zeigt, dass die Entwicklung nicht irreversibel ist, da es aufgrund des Einflusses computergestützter Kommunikationsformen möglicherweise zu einem erneuten Auftreten präfigierter Verben nach dem Muster altenglischer Formen kommt.
2013-12-13
2017-07-12T07:36:41Z
2013-12-13
2013
doc-type:article
urn:nbn:de:bsz:291-scidok-55964
hdl:20.500.11880/23687
http://dx.doi.org/10.22028/D291-23631
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/236892019-01-10T07:40:04Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:doctoralThesisdoc-type:ResearchDataciminterface:dnbddc:620
Event structures in knowledge, pictures and text
Ereignis-Strukturen in Wissen, Bildern und Text
Regneri, Michaela
Pinkal, Manfred
ddc:400
Künstliche Intelligenz
Allgemeinwissen
Computerlinguistik
Semantik
Paraphrase
Skripte
Multimodale Verarbeitung
Paraphrasierung
computational semantics
scripts
knowledge acquisition
multimodal processing
Paraphrasing
This thesis proposes new techniques for mining scripts.
Scripts are essential pieces of common sense knowledge that contain information about everyday scenarios (like going to a restaurant), namely the events that usually happen in a scenario (entering, sitting down, reading the menu...), their typical order (ordering happens before eating), and the participants of these events (customer, waiter, food...).
Because many conventionalized scenarios are shared common sense knowledge and thus are usually not described in standard texts, we propose to elicit sequential descriptions of typical scenario instances via crowdsourcing over the internet. This approach overcomes the implicitness problem and, at the same time, is scalable to large data collections.
To generalize over the input data, we need to mine event and participant paraphrases from the textual sequences. For this task we make use of the structural commonalities in the collected sequential descriptions, which yields much more accurate paraphrases than approaches that do not take structural constraints into account.
We further apply the algorithm we developed for event paraphrasing to parallel standard texts for extracting sentential paraphrases and paraphrase fragments. In this case we consider the discourse structure in a text as a sequential event structure. As for event paraphrasing, the structure-aware paraphrasing approach clearly outperforms systems that do not consider discourse structure.
As a multimodal application, we develop a new resource in which textual event descriptions are grounded in videos, which enables new investigations on action description semantics and a more accurate modeling of event description similarities. This grounding approach also opens up new possibilities for applying the computed script knowledge for automated event recognition in videos.
Die vorliegende Dissertation schlägt neue Techniken zur Berechnung von Skripten vor. Skripte sind essentielle Teile des Allgemeinwissens, die Informationen über alltägliche Szenarien (wie im Restaurant essen) enthalten, nämlich die Ereignisse, die typischerweise in einem Szenario vorkommen (eintreten, sich setzen, die Karte lesen...), deren typische zeitliche Abfolge (man bestellt bevor man isst), und die Teilnehmer der Ereignisse (ein Gast, der Kellner, das Essen,...).
Da viele konventionalisierte Szenarien implizit geteiltes Allgemeinwissen sind und üblicherweise nicht detailliert in Texten beschrieben werden, schlagen wir vor, Beschreibungen von typischen Szenario-Instanzen durch sog. “Crowdsourcing” über das Internet zu sammeln. Dieser Ansatz löst das Implizitheits-Problem und lässt sich gleichzeitig zu großen Daten-Sammlungen hochskalieren.
Um über die Eingabe-Daten zu generalisieren, müssen wir in den Text-Sequenzen Paraphrasen für Ereignisse und Teilnehmer finden. Hierfür nutzen wir die strukturellen Gemeinsamkeiten dieser Sequenzen, was viel präzisere Paraphrasen-Information ergibt als Standard-Ansätze, die strukturelle Einschränkungen nicht beachten.
Die Techniken, die wir für die Ereignis-Paraphrasierung entwickelt haben, wenden wir auch auf parallele Standard-Texte an, um Paraphrasen auf Satz-Ebene sowie Paraphrasen-Fragmente zu extrahieren. Hier betrachten wir die Diskurs-Struktur eines Textes als sequentielle Ereignis-Struktur. Auch hier liefert der strukturell informierte Ansatz klar bessere Ergebnisse als herkömmliche Systeme, die Diskurs-Struktur nicht in die Berechnung mit einbeziehen.
Als multimodale Anwendung entwickeln wir eine neue Ressource, in der Text-Beschreibungen von Ereignissen mittels zeitlicher Synchronisierung in Videos verankert sind. Dies ermöglicht neue Ansätze für die Erforschung der Semantik von Ereignisbeschreibungen, und erlaubt außerdem die Modellierung treffenderer Ereignis-Ähnlichkeiten. Dieser Schritt der visuellen Verankerung von Text in Videos eröffnet auch neue Möglichkeiten für die Anwendung des berechneten Skript-Wissen bei der automatischen Ereigniserkennung in Videos.
2014-01-21
2017-07-12T07:36:43Z
2014-01-21
2013
doc-type:doctoralThesis
urn:nbn:de:bsz:291-scidok-56275
hdl:20.500.11880/23689
http://dx.doi.org/10.22028/D291-23633
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/236952019-01-10T07:40:05Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:doctoralThesisdoc-type:ResearchDataciminterface:dnbddc:620
The pragmatics of monologue: interaction in video blogs
Die Pragmatik des Monologs: Interaktion in Videoblogs
Frobenius, Maximiliane
Norrick, Neal R.
ddc:400
Monolog
Konversationsanalyse
Internetsprache
Video
YouTube
Multimodalität
Videoblog
video blog
YouTube
online language
discourse analysis
multimodality
This study reports an in-depth pragmatic analysis of spoke monologues as they appear in video blogs (vlogs). Vlogs are videos of a person talking into the camera, which are edited and subsequently uploaded to video sharing websites such as YouTube, where they appear in a highly multimodal environment. Using methods situated in the fields of Conversation Analysis, Interactive Sociolinguistics and multimodality studies, the research presented investigates a wide range of speaker strategies. These strategies are studied with regard to their form, frequency of occurrence, how they are adapted to the specific context of language use and, where possible, what effect this has on vlog viewers. The strategies and phenomena under investigation are the openings and closings of monologues; repetition and involvement strategies; pointing gestures and video-comment coherence in the virtual online space. Comparison with another monologic genre, the TED Talk, reveals that the monologue setting itself is an influential variable that naturally shapes a vlogger’s or lecturer’s way of speaking compared to conversational settings. However, more specifically, the comparison also shows that the contextual differences between a stage monologue at a TED conference and a camera monologue as part of a vlog, can be significant in terms of their influence on the interaction that takes place.
Diese Forschungsarbeit untersucht gesprochene Monologe wie sie in Videoblogs (Vlogs) vorkommen aus linguistisch-pragmatischer Sicht. Vlogs sind Videos von Menschen, die in die Kamera sprechen. Diese Videos werden nach der Aufnahme bearbeitet und dann auf Videoseiten im Internet, wie zum Beispiel YouTube, hochgeladen, wo sie im Rahmen einer multimodal komplexen Webseite einer breiten Öffentlichkeit zugänglich sind. Die Vlogmonologe werden mit Hilfe von Methoden aus der Konversationsanalyse, der Interaktionalen Soziolinguistik und Studien zur Multimodalität auf die Strategien der Sprecher beleuchtet. Diese Strategien werden untersucht im Hinblick auf ihre Form, Häufigkeit, wie sie an den spezifischen Sprechkontext angepasst sind und, wo möglich, was für einen Effekt sie auf die Zuschauer haben. Die Strategien und Phänomene, die hier untersucht werden sind Anfangs- und Schlusssequenzen; Wiederholungen und Involvement-Strategien; Zeigegesten und die Kohärenz zwischen Video und Zuschauerkommentaren im virtuellen Raum. Der Vergleich mit einer anderen monologischen Gattung, dem TED-Talk, zeigt, dass die Sprechsituation im Monolog eine einflussreiche Variable ist verglichen mit konversationellen Situationen. Der Vergleich zeigt aber weiterhin, dass die kontextuellen Unterschiede zwischen Vlogs, die vor der Kamera entstehen, und TED Talks, die auf einer Bühne vor Publikum vorgetragen werden, signifikant sein können hinsichtlich ihres Einflusses auf die stattfindende Interaktion.
2014-09-17
2017-07-12T07:36:45Z
2014-09-17
2014
doc-type:doctoralThesis
urn:nbn:de:bsz:291-scidok-58955
hdl:20.500.11880/23695
http://dx.doi.org/10.22028/D291-23639
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/236972019-01-10T07:40:05Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:doctoralThesisdoc-type:ResearchDataciminterface:dnbddc:620
Evaluative meaning in scientific writing : macro- and micro-analytic perspectives using data mining
Degaetano-Ortlieb, Stefania
Teich, Elke
ddc:400
Data Mining
Support-Vektor-Maschine
Wissenschaftssprache
text classification
register variation
scientific writing
macro- and micro-analysis
In this thesis, we elaborate characteristics of evaluative meaning of different scientific disciplines and trace their diachronic linguistic evolution. A main focus lies on newly emerged disciplines, such as computational linguistics, which emerged through contact between two other disciplines, such as computer science and linguistics. Here, we consider (1) whether these newly emerged disciplines have created characteristics of their own over time, showing a process of diversification, and (2) whether they have also adopted characteristics from their disciplines of origin, reflected in a linguistic imprint, and if this might have changed over time. The newly emerged disciplines considered are computational linguistics, bioinformatics, digital construction and microelectronics, which have emerged through contact between computer science and a further discipline (linguistics, biology, mechanical engineering, and electrical engineering, respectively).
In terms of theory, this work is grounded in a linguistic theory rooted in sociolinguistics, Systemic Functional Linguistics (SFL; Halliday, 2004), which with its functional perspective on language allowed us to position evaluative meaning within a linguistic theory and to create a model of analysis to trace choices made in the semantic system on the level of lexico-grammar. Moreover, its notion of register, concerned with functional variation, i.e. variation according to language use, combined with the sociolinguistic perspective made it possible to compare the linguistic choices made according to different social contexts, to which the disciplines belong. This allowed us to trace register diversification processes and registerial imprint of evaluative meaning across disciplines.
In terms of methods, we apply classification as a data mining technique, taking a macro- and micro-analytic perspective (cf. Jockers, 2013) on the results. Doing so we gain insights on the degree of diversification and imprint (macro-analysis) and the kind of diversification and imprint (micro-analysis). Studies so far have considered either the macro- or the micro-analytic perspective. By considering both, we are able to investigate generalizable trends as well as detailed linguistic characteristics of evaluative meaning across disciplines and time. The approach presented in this thesis draws its strength from being grounded in a linguistic theory, which proved to be extremely useful in defining and testing hypotheses and interpreting results. Moreover, an empirical analysis of evaluative meaning across disciplines and time was possible by combining corpus-based methods with data mining techniques.
In der vorliegenden Dissertation werden Bewertungscharakteristiken verschiedener Wissenschaftsdisziplinen erarbeitet und ihre diachrone linguistische Entwicklung untersucht. Ein Hauptfokus liegt auf in neuerer Zeit entstandenen Disziplinen (z. B. Computerlinguistik), die sich durch Kontakt zwischen zwei anderen Disziplinen gebildet haben (z. B. Informatik und Linguistik). In diesem Zusammenhang wird erforscht, (1) ob diese neu entstandenen Disziplinen diachron ihre eigenen Charakteristiken entwickeln und somit einen Diversifikationsprozess aufzeigen und (2) ob sie auch Charakteristiken der Ursprungsdisziplinen übernehmen und somit eine linguistische Prägung aus der Ursprungsdisziplin vorweisen und ob sich diese möglicherweise diachron verändert hat. Die untersuchten relativ neu entstandenen Disziplinen sind die Computerlinguistik, Bioinformatik, Bauinformatik und Mikroelektronik, die durch Kontakt zwischen der Informatik und einer anderen Disziplin entstanden sind, in unserem Fall entsprechend aus der Linguistik, Biologie, dem Maschinenbau und der Elektrotechnik.
Die Arbeit basiert auf der soziolinguistischen Theorie der Systemisch Funktionalen Linguistik (SFL; Halliday (2004)). Aufgrund ihrer funktionalen Perspektive auf die Sprache war es uns möglich, das semantische Konzept der Bewertung in eine linguistische Theorie zu positionieren und ein Analysemodel zu entwickeln, um die Auswahl aus dem semantischen System auf der lexicogrammatischen Ebene nachzuverfolgen. Besonders wichtig ist hierbei auch das Registerkonzept aus der SFL, das sich mit funktionaler Variation befasst, d.h. Variation in Bezug auf den Sprachgebrauch. Die Kombination aus funktionaler Variation und soziolinguistischer Perspektive hat es erlaubt, die linguistischen Entscheidungen in Bezug auf Bewertungen, die in unterschiedlichen sozialen Kontexten (d.h. den verschiedenen Disziplinen) gefällt wurden, zu untersuchen und diese zu vergleichen. Dadurch konnten für die untersuchten Disziplinen registerspezifische Diversifikationsprozesse und Prägungen bezüglich Bewertungen ausgemacht werden. Methodisch wurde aus dem Bereich des Data Mining die Klassifikation angewandt, die es erlaubt hat, die Ergebnisse aus einer makro- und mikro-analytischen Perspektive (vgl. Jockers (2013)) zu erforschen. Dadurch konnten Erkenntnisse erlangt werden in Bezug auf den Diversifikations- und Prägungsgrad (Makro-Analyse) sowie der Art der Diversifikation und Prägung (Mikro-Analyse). Studien haben bislang entweder die makro- oder die mikro-analytische Perspektive angewandt. Durch den Einbezug beider Ebenen ist es uns gelungen, sowohl generalisierbare Tendenzen festzustellen als auch detaillierte linguistische Charakteristiken und diachrone Veränderungen von Bewertungsausdrücken in verschiedenen Disziplinen zu untersuchen.
Die Stärken des in der vorliegenden Dissertation präsentierten Ansatzes liegen darin, dass er in einer linguistischen Theorie fundiert ist, die sich sehr hilfreich erwiesen hat bei der Hypothesenaufstellung und beim Testen der Hypothesen sowie auch bei der Interpretation der Ergebnisse. Darüber hinaus hat der Ansatz eine empirische Analyse von Bewertungen in wissenschaftlichen Disziplinen durch das Zusammenspiel von korpus-basierten Methoden und Techniken aus dem Data Mining ermöglicht.
2015-01-19
2017-07-12T07:36:46Z
2015-01-19
2015
doc-type:doctoralThesis
urn:nbn:de:bsz:291-scidok-59841
hdl:20.500.11880/23697
http://dx.doi.org/10.22028/D291-23641
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/236992019-01-10T07:40:05Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:doctoralThesisdoc-type:ResearchDataciminterface:dnbddc:620
Dimension lapsisée : revised subjectivity in Québécois women’s narratives
Dimension lapsisée : Neukonstruktion von Subjektivität in Quebecscher Frauenliteratur
Tutschek, Elisabeth A.
Fellner, Astrid
ddc:400
Kanada
Québec
Montréal
Nordamerika
Frauenliteratur
Subjektivität
Geschlechterstudien
Flaneur
subjectivity
gender
Anglo-Quebecois
“Dimension lapsisée: Revised subjectivity in Québécois women’s narratives” argues that the long-standing binary divisions of Montréal that are rooted in the double colonisation of its territory have created a discursive space that is reminiscent of what Gloria Anzaldúa terms ‘borderlands’ in her 1987 publication Borderlands – La Frontera. In particular, this study is a critical discussion of the construction and modification of subjectivity emerging from the Montréal borderlands. It is based on the reading of selected first-person narratives in English and French that have been published since the beginning of the Quiet Revolution. These close readings of narratives – and fiction/theories – by Nicole Brossard, Gail Scott, Nathanaël, Heather O’Neill, and Zoe Whittall are at the core of my dissertation. The investigation of the ways in which the literary productions of these writers are critical of cultural norms is characteristic of many encounters that take place in contemporary Montréal. Because of their hyper-awareness of the structures of anglophone and francophone colonialism, these writings intervene to disrupt cultural preconceptions of imperialism, patriarchy, and heteronormativity. More generally, they challenge cultural as well as linguistic homogeneity and nationalisms. By and large, I take a historical approach to investigate the following question in this project: How has the crossing of cultural, linguistic, and ideological borders been addressed in narratives by bilingual, anglophone, and francophone Québécois women writers in Montréal for the past three decades?
This dissertation explores Montréal writing, analysing the urban topographies it maps, the social encounters it stages as well as the representations of both, and its many trans-lingual experiences and experiments. In particular, my readings of French Kiss (1974), Le désert mauve (1987), Main Brides (1993), My Paris (1999), Paper City (2003), The Sorrow and the Fast of It (2007), Lullabies for Little Criminals (2006), and Bottle Rocket Hearts (2007) focus on the notion of ‘subjectivity.’ On that account, first-person narrating subjects are at the centre of my study. Relying on theories of performativity, I outline the process of alteration of the subject as well as the deconstruction of its product.
The texts I have assembled here from a corpus of fiction as well as theory are written by individuals that identify – or at least temporarily identified – with the category of ‘woman.’ They live in Montréal or spent considerable time there (here) or shared (share) ideological principles, writing practices, and theories of subjectivity and translation.29 My choice of novels, long poems, and essays written in English, French, and translated from French into English and vice versa reaches from the 1970s to the beginning of the new millennium and reflects the changing character of the ‘subject’ and its location between cultures, languages, and genders. I use the concept of ‘dimension lapsisée’ to grapple with the multiple matrices of the writings and translations at hand. This concept is informed by fiction and theory taken from Montréal’s borderlands and is used as an interpretative device: As much as it describes the zones of cultural and linguistic encounters in the historically bisected city of Montréal, the ‘lapsised dimension,’ I claim, at the same time illustrates the oscillating state of an in- between generated by these encounters and that blurs the boundaries of nations, linguistic codes, genders and genres.
Diese Dissertation beschäftigt sich mit den Fronten zwischen dem englischsprachigen Teil Kanadas und der frankophonen Provinz Quebec. Im Mittelpunkt der Analyse steht dabei die Metropole Montreal, in der englisch- und französischsprachige Gemeinschaften nebeneinander und miteinander leben. Lange Zeit wurde die Stadt in Kunst und Kultur aber auch vor allem politisch als geteilt konstruiert: typischerweise wird Montreals Westen als anglophon, der Osten als frankophon dargestellt. Als historische Demarkationslinie zwischen den beiden gilt dabei der Boulevard Saint-Laurent. Er teilt die Stadt mittig und geradlinig von Süd nach Nord. Das Hauptargument meiner Arbeit liegt darin, dass das dabei entstandene urbane Grenzgebiet – das allerdings viel komplexer ist, als es die zweispaltige topographische Darstellung vermittelt – ein diskursiver Raum ist, der mit dem Konzept des ‚borderlands,’ das die Chicana Schriftstellerin und Theoretikerin Gloria Anzaldúa in ihrem Werk Borderlands/La Frontera beschreibt, vergleichbar ist.
Im Detail diskutiert diese Dissertation die Konstruktion und Modifizierung von Subjektivität, wie sie in den borderlands Zonen Montreals stattfindet. Die Studie basiert auf Ich-Erzählungen, die seit der Stillen Revolution sowohl auf Englisch als auch auf Französisch geschrieben wurden. Der Korpus der Arbeit umfasst folgende Texte: French Kiss und Le désert mauve von der frankophonen feministischen Autorin Nicole Brossard, Main Brides und My Paris von der anglophonen Quebec-nahen feministischen Schriftstellerin Gail Scott, Paper City und The Sorrow and the Fast of It von Nathanaël (Nathalie Stephens), einer gebürtigen Montrealer Schriftstellerin, die nun in Chicago und zwischen den Geschlechtern lebt, sowie Lullabies for Little Criminals von der englischsprachigen Montrealer Autorin Heather O’Neill und Bottle Rocket Hearts von der anglophonen queeren Schrifstellerin Zoe Whittall. All diese Texte stellen sowohl sprachliche Homogenität als auch kulturellen Nationalismus in Frage. Aber auf welche Weise nimmt das Überschreiten von linguistischen, kulturellen und ideologischen Grenzen Form an in diesen Erzählungen zweisprachiger anglophoner und frankophoner Schriftstellerinnen aus einem Montréal der siebziger Jahre bis heute?
2015-03-16
2017-07-12T07:36:47Z
2015-03-16
2015
doc-type:doctoralThesis
urn:nbn:de:bsz:291-scidok-60086
hdl:20.500.11880/23699
http://dx.doi.org/10.22028/D291-23643
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/237002019-01-10T07:40:05Zcom_20.500.11880_2com_20.500.11880_6105col_20.500.11880_3col_20.500.11880_6107has-source-swb:truedoc-type:articleddc:400open_accessdoc-type:ResearchDataciminterface:dnbddc:620
A corpus-based exploration of connector usage in native and non-native English writing
Collet, Caroline E.
Ankerstein, Carrie A.
ddc:400
Korpus <Linguistik>
Konnektoren
Korpuslinguistik
Spracherwerbsforschung
nonnative English writing
sentence connectors
corpus linguistics
The usage of connectors in English writing has been shown to be difficult for nonnative learners who have been found to overuse and misuse these devices. We explored overuse of connectors and positioning of connectors in a corpus-based study, which used two corpora: essays by native speakers and essays by nonnative speakers from a range of native language backgrounds, with a special focus on German native speakers. Our findings showed that English and German writers do not differ significantly in the frequency of use of connectors or their positioning within a sentence. We conclude with some suggestions for further research.
Nichtmuttersprachlern des Englischen fällt es häufig schwer, Konnektoren in englischen Texten zu benutzen. Viele Studien belegen, dass Nichtmuttersprachler Konnektoren entweder zu häufig oder sinngemäß falsch einsetzen. Die vorliegende korpus-basierte Studie untersucht zum einen die Häufigkeit der benutzen Konnektoren und zum anderen die Position der Konnektoren in einem Satz. Dazu wurde ein Korpus erstellt, das sich aus englischen Texten von englischen Muttersprachlern und Nichtmuttersprachlern zusammensetzt. Die Ergebnisse der Studie zeigen, dass sich die Texte der englischen Muttersprachler und der deutschen Nichtmuttersprachlern nicht signifikant in Häufigkeit und Positionierung der benutzen Konnektoren unterscheiden. Abschließend werden Vorschläge für weiterführende Untersuchungen gemacht.
2015-04-02
2017-07-12T07:36:47Z
2015-04-02
2015
2015-04-02
doc-type:article
urn:nbn:de:bsz:291-scidok-60156
hdl:20.500.11880/23700
http://dx.doi.org/10.22028/D291-23644
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/237012019-01-10T07:40:05Zcom_20.500.11880_2com_20.500.11880_6105col_20.500.11880_3col_20.500.11880_6107has-source-swb:truedoc-type:articleddc:400open_accessdoc-type:ResearchDataciminterface:dnbddc:620
Comments on Anglicisms in Spanish and their reception
Schmidt, Selina
Diemer, Stefan
ddc:400
Lingua Franca
Anglizismus
Weltsprache
Englisch
Kritik
world language
world English
criticism
Spain
Anglicism
The article describes the influence of English on Spanish from a sociolinguistic perspective and gives a short taxonomy of Anglicisms in Spanish. Under the influence of World English, Anglicisms, particularly lexical ones, have become more prevalent than previously documented, as corpus-based examples show. Attitudes concerning their increasing use fall into three categories: refusing to accept Anglicisms and their use in Spanish (the purist view), warning against their use while emphasizing potential negative consequences for Spanish (the moderate view) and accepting the trend as an enrichment of a modern, living Spanish (the integrative view). Traditional views have been leaning towards the purist position, with the Royal Spanish Academy (RSA) as a leading institution to enforce a restrictive language policy. Public views have been both purist and moderate, while many linguists follow an integrative approach. It is argued that the Academy’s increasingly problematic task is to strike a balance between preservation of the language character and the freedom for Spanish to adapt and develop in a global context.
Der Artikel beschreibt den Einfluss des Englischen auf das Spanische aus soziolinguistischer Perspektive und gibt eine Übersicht von Anglizismen im Spanischen sowie deren bisherige Einordnung in der Forschung. Unter dem Einfluss der Weltsprache Englisch sind besonders lexikalische Anglizismen weiter verbreitet als bisher dokumentiert, wie korpusbasierte Beispiele zeigen. Die Haltungen gegenüber dieser Entwicklung fallen in drei Kategorien: die Ablehnung von Anglizismen und ihres Gebrauchs im Spanischen (die puristische Sicht), die Warnung vor ihrem Gebrauch unter Betonung möglicher negativen Konsequenzen für das Spanische (die moderate Sicht) und das Akzeptieren dieses Trends als eine Bereicherung eines modernen, lebenden Spanisch (die integrative Sicht). Die traditionelle Sichtweise ist überwiegend puristisch geprägt, mit der Königlich Spanischen Akademie (KSA) als führender Institution, die eine restriktive Sprachpolitik betreibt. Es wird argumentiert, dass es die zunehmend problematische Aufgabe der Akademie ist, einen Ausgleich zu finden zwischen der Bewahrung des Charakters der Sprache und der Freiheit, sich in einem globalen Kontext anzupassen und weiterzuentwickeln.
2015-04-02
2017-07-12T07:36:47Z
2015-04-02
2015
2015-04-02
doc-type:article
urn:nbn:de:bsz:291-scidok-60160
hdl:20.500.11880/23701
http://dx.doi.org/10.22028/D291-23645
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/237022019-01-10T07:40:05Zcom_20.500.11880_2com_20.500.11880_6105col_20.500.11880_3col_20.500.11880_6107has-source-swb:truedoc-type:articleddc:400open_accessdoc-type:ResearchDataciminterface:dnbddc:620
“Politik, die du sagt” : eine linguistische Analyse der politischen Wahlwerbesprache 2013 im Vergleich mit Produktwerbesprache
Makarova, Tatiana
Scherzinger, Jakob
ddc:400
Korpus <Linguistik>
Werbesprache
Wahlpropaganda
Bundestagswahl
Wahlwerbung
Bundestagswahl 2013
korpusbasierte Studie
political advertisement
federal election 2013
corpus-based study
advertising language
Der vorliegende Artikel befasst sich mit der politischen Werbesprache der Bundestagswahl 2013 und vergleicht diese sprachlich mit der kommerziellen Produktwerbung. Die dazu durchgeführte korpusbasierte Studie zur Wahlwerbung zeigt in Abgrenzung zur kommerziellen Werbung, welche Gemeinsamkeiten auf der syntaktischen Ebene und Unterschiede auf der semantischen und pragmatischen Ebene bei der Analyse der Wahlwerbeslogans zu finden sind. Dabei werden auch emotionale Nebenbedeutungen von Wahlwerbung berücksichtigt.
The present article examines political advertising language and contrasts it linguistically with commercial product advertising. A corpus-based study reveals similarities at the syntactic level and differences at the semantic-pragmatic level. Emotional aspects of campaign advertising are also discussed.
2015-04-02
2017-07-12T07:36:47Z
2015-04-02
2015
2015-04-02
doc-type:article
urn:nbn:de:bsz:291-scidok-60175
hdl:20.500.11880/23702
http://dx.doi.org/10.22028/D291-23646
ger
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/237042019-01-10T07:40:05Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:doctoralThesisdoc-type:ResearchDataciminterface:dnbddc:620
Internal representations of visual objects and their retrieval during situated language processing
Interne Repräsentationen visueller Objekte und deren Abruf während der situativen Sprachverarbeitung
Ellsiepen, Emilia
Crocker, Matthew W.
ddc:400
Psycholinguistik
Sprachverarbeitung
Blickbewegung
Visuelle Aufmerksamkeit
Gedächtnis
psycholinguistics
situated language processing
visual attention
memory
prediction
Human language processing often takes place in a surrounding that is inherently connected to the linguistic content because real objects or ongoing events are being referred to. Research in situated language processing has shown that visual attention in a concurrent scene is closely connected to language processing. Furthermore, visual information can disambiguate between linguistic interpretations. This thesis investigates whether these kinds of findings acquired in the Visual World Paradigm generalize to settings where the use of internal memory representations of visual objects is necessary. Moreover, the role of language processing on covert visual attention is examined.
To investigate whether and how internal memory representations may be utilized for situated language processing, we developed a variant of the blank screen paradigm that manipulates the order in which seven visual objects are presented before processing a spoken sentence. Building on the hypothesis that the nature and accessibility of an internal representation partly depends on its serial position in the presentation sequence, this design allows us to examine whether language mediated eye movements on the blank screen can rely on both shallow representations associated with working memory and rich representations containing conceptual information. The results suggest that these different representations become available at different stages of processing with only rich representations being the basis of eye movements during the processing of a restrictive verb, all relevant representations being accessible for anticipatory eye movements after the verb, and shallow but highly active representations being the best candidates for referential eye movements during a noun phrase.
We provide an analysis of these results that combines aspects of two existing accounts of situated language processing to characterize the role and nature of visual attention during sentence processing. From the featural overlap account described in Altmann & Kamide (2007), we adopt the idea that language mediated attention arises automatically as a by-product of linguistic processing and scene processing. In addition to this automatic process, we propose a top-down driven process to guide attention during prediction, similar to the mechanism described in the Coordinated Interplay Account in Knoeferle & Crocker (2006, 2007).
Further evidence for both top-down and automatic effects of language processing on visual attention is provided by two experiments using a variant of the Posner Paradigm. By manipulating the timing and the task given to the participants, we reveal that language can have an automatic influence on covert visual attention in that this influence arises very early and even if the linguistic stimulus is completely irrelevant or even obstructive to a concurrent task. On the other hand, the effect of language processing on the orienting of covert visual attention is enhanced by a task that encourages the use of the linguistic information.
This work highlights the necessity of including non-linguistic cognitive functions in a comprehensive model of situated language processing. We provide the outline of a model that includes a notion of memory and a specific visual attention mechanism that accounts for our experimental findings. In addition, our results support the conjecture that findings from the Visual World Paradigm and especially its Blank Screen version generalize to more naturalistic settings, as the reliance on internal representations is of particular importance in an immersive environment. On the other hand, the influence of a concurrent task on language-mediated eye movements emphasizes the importance of methodological details for the interpretation of existing results.
Natürliche Sprache wird oft in Kontexten produziert und verarbeitet, in denen die umgeben- de Situation inhärent mit den linguistischen Inhalten verbunden ist, da auf Gegenstände oder gerade ablaufende Handlungen referenziert wird. Forschung im Bereich der situativen Sprachverarbeitung hat ergeben, dass die visuelle Aufmerksamkeit eines Zuhörers eng mit der Verarbeitung der sprachlichen Äußerung verflochten ist. Weiterhin wurde gezeigt, dass Informationen aus dem visuellen Umfeld genutzt werden können um zwischen verschiedenen Lesarten zu disambiguieren. Ziel dieser Arbeit war es, herauszufinden, ob sich solche Erkenntnisse, die mithilfe des "Visual World" Paradigmas gewonnen wurden, auf Situationen übertragen lassen, in denen auf interne Gedächtnisrepräsentationen von visuellen Objekten zugegriffen werden muss. Außerdem wurde untersucht, wie Sprache verdeckte visuelle Aufmerksamkeit, also Aufmerksamkeit jenseits der aktuellen Fixation, beeinflusst.
Um zu untersuchen inwiefern interne Repräsentationen genutzt werden können, wurde eine neue Version des "Blank Screen" Paradigma entwickelt, bei der die Reihenfolge variiert wird, in der eine Anzahl von Objekten gezeigt werden, bevor dem Probanden ein Satz vorgespielt wird. Zugrunde liegt diesem Design die Hypothese, dass Art und Erreichbarkeit interner Repräsentationen von der seriellen Position eines Objektes innerhalb einer Präsentationsabfolge abhängen kann. Ziel war es so herauszufinden, ob sprachgesteuerte Augenbewegungen auf einem leeren Bildschirm sowohl auf oberflächlichen Repräsentationen, wie sie mit dem Kurzzeitgedächtnis assoziiert werden, basieren können, als auch auf vielschichtigen Repräsentationen, wie sie für das Langzeitgedächtnis angenommen werden. Unsere Ergebnisse weisen darauf hin, dass unterschiedliche Arten der Repräsentation zu verschiedenen Phasen der Sprachverarbeitung verfügbar werden. Während der Verarbeitung eines restriktiven Verbs können nur vielschichtige Repräsentationen den Augenbewegungen als Grundlage dienen. In einer antizipatorischen Phase nach dem Verb dagegen sind alle relevanten Repräsentationen prinzipiell zugänglich, während Augenbewegungen während einer referentiellen Nominalphrase zumeist auf oberflächlichen Repräsentationen, die jedoch eine hohe Aktivierung aufweisen, beruhen.
Unsere Analyse dieser Ergebnisse kombiniert Aspekte aus zwei unterschiedlichen Modellen der situativer Sprachverarbeitung. Aus Altmann & Kamide (2007) wurde die Idee übernommen, dass sprachgesteuerte Augenbewegungen automatisch als Nebenprodukt von Sprachverarbeitung einerseits und der Verarbeitung der visuellen Umgebung andererseits entstehen. Zusätzlich zu diesem automatischen Prozess nehmen wir einen intern gesteuerten Prozess an, der die Aufmerksamkeit während der Vorhersage des nächsten Wortes lenkt, ähnlich dem in Knoeferle & Crocker (2006,2007) beschriebenen Mechanismus.
Einen weiteren, unabhängigen Beleg für die Koexistenz von automatischer und intern gesteuerter Ausrichtung der visuellen Aufmerksamkeit durch sprachliche Stimuli liefern zwei Experimente, die eine Variante des Posner Paradigmas zur Untersuchung verdeckter Aufmerksamkeit nutzen. Indem das Zeitintervall zwischen Hinweisreiz und Zielreiz verändert wurde und die Formulierung der Aufgabe an die Probanden variiert wurde, konnte ein automatischer Einfluss von Sprache auf die verdeckte visuelle Aufmerksamkeit festgestellt werden. Dieser Effekt entsteht sehr früh und wird nicht davon außer Kraft gesetzt, dass der sprachliche Reiz irrelevant oder hinderlich bei der Aufgabe ist. Auf der anderen Seite wird der Einfluss der Sprachverarbeitung auf die Ausrichtung der visuellen Aufmerksamkeit verstärkt, wenn die Aufgabe dazu ermutigt die sprachliche Information zu nutzen.
Diese Arbeit macht deutlich, dass ein umfassendes Model der situativen Sprachverarbeitung nicht linguistische kognitive Funktionen einschliessen muss. Wir umreissen ein Model, das in der Lage ist unsere Ergebnisse zu erklären, indem das Konzept eines Gedächtnisses und ein spezieller Mechanismus der visuellen Aufmerksamkeitsausrichtung integriert wird. Unsere Ergebnisse stützen außerdem die Annahme, dass die Erkenntnisse, die im "Visual World" und "Blank Screen" Paradigma gewonnen wurden, sich durchaus auf natürlichere Situationen übertragen lassen, da die Nutzung interner Repräsentationen in einer natürlichen Umgebung von besonderer Bedeutung ist. Der Einfluss spezieller Aufgabenstellungen auf sprachgesteuerte Augenbewegungen machen auf der anderen Seite deutlich, wie wichtig es ist, methodologische Details bei der Interpretation besehender Ergebnisse vor Augen zu haben.
2015-06-12
2017-07-12T07:36:48Z
2015-06-12
2015
doc-type:doctoralThesis
urn:nbn:de:bsz:291-scidok-61279
hdl:20.500.11880/23704
http://dx.doi.org/10.22028/D291-23648
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/237052019-01-10T07:40:05Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:doctoralThesisdoc-type:ResearchDataciminterface:dnbddc:620
Presenting medical research findings : a study of author engagement in English and German scientific articles and popularisations
Die Darstellung medizinischer Forschungsergebnisse : eine Untersuchung von Autoren-‚Engagement‘ in englischen und deutschen Fachartikeln und Popularisierungen
Mondt, Mary
Steiner, Erich
ddc:400
Englisch
Deutsch
Popularisierung
Fachsprache
Medizin
English
Geman
medical discourse
popularisation
LSP
Scientific discourse, commonly associated with a detached and factual style, has come to be regarded as not merely serving the purpose of conveying neutral ‘facts’, but also as a means of pursuing interpersonal aims within the scientific community by writers whose position is not a reflection of a given reality but socially determined. This thesis is concerned with the linguistic choices made in imparting medical research results to different audiences, namely those of English and German research papers and popularisations. The focus of this study is on the realisation of epistemic and evidential meanings and their role in enabling authors to position themselves towards the medical research findings they are presenting and towards their readership without using overtly attitudinal language. Special emphasis is placed on the way epistemic and evidential expressions are used to model different sources of knowledge claims. Moreover, attention is paid to the question of whether propositional content is presented as either open or closed to discussion by the use of these features. Using corpus-linguistic methods, the analysis builds on research into register variation and contrastive linguistics to conduct monolingual and contrastive analyses of English and German corpora. The study adopts the interpersonal orientation of Appraisal, which is based on the dialogic view proposed by Bakthin and Vološinov. The Appraisal framework is adapted to a fine-grained analysis of linguistic exponents of epistemic and evidential meanings in a bilingual English and German corpus. The thesis contributes to the understanding of the language-specific use of these features as ‘interactive’ resources in research publications. Moreover, it offers insights into how the presentation of medical knowledge is geared towards the readers of popularisations in the two languages.
Die traditionelle Wahrnehmung von Wissenschaftssprachen als von einem objektiven Stil geprägte Diskursformen ist in den letzten Jahren einer Sicht gewichen, der zufolge wissenschaftliche Diskurse nicht mehr als Spiegelung gegebener Realitäten betrachtet werden. In der sprachwissenschaftlichen Forschung liegt ein starker Fokus auf subjektiven, sozialen Gesichtspunkten, die wissenschaftliches Schreiben prägen. Gegenstand der Untersuchung ist die Wahl sprachlicher Ausdrucksmittel bei der Vermittlung medizinischer Forschungsergebnisse in unterschiedlichen kommunikativen Konstellationen. Das Augenmerk liegt dabei auf Unterschieden zwischen der Wissensvermittlung unter Wissenschaftlern und der Darstellung von Erkenntnissen in englischen und deutschen Popularisierungen. In der Arbeit wird untersucht, wie Autoren sich selbst und ihre Leserschaft ohne Verwendung emotiver Ausdrucksmittel durch epistemische und evidentielle Formulierungen gegenüber vermittelten Inhalten und bisheriger Forschung positionieren. Hierzu wird insbesondere die Wahl sprachlicher Mittel zur Bezugnahme auf Informationsquellen beleuchtet. Es wird analysiert, ob Inhalte als Fakten dargestellt oder der Leserschaft eher als tentative Informationsangebote unterbreitet werden. Die in der Arbeit durchgeführten monolingualen und kontrastiven Analysen bauen auf korpuslinguistischen Methoden und Arbeiten zur Registervariation und kontrastiven Linguistik auf. Dabei wird der interpersonale Ansatz von 'appraisal' übernommen, der durch die von Bakthin und Vološinov entwickelten Konzepte des Dialogismus und der Heteroglossie beeinflusst ist. Das 'appraisal'-Rahmenkonzept wird für eine Analyse epistemischer und evidentieller Marker in einem bilingualen englischen und deutschen Korpus angepasst. Die Ergebnisse liefern Einblicke in die Verwendung dieser Sprachmittel als dialogische Ressourcen in der Wissenschaftspublizistik und tragen zum Verständnis sprachspezifischer Anpassungen an die Wissensvermittlung durch Popularisierungen bei.
2015-06-19
2017-07-12T07:36:48Z
2015-06-19
2015
doc-type:doctoralThesis
urn:nbn:de:bsz:291-scidok-61533
hdl:20.500.11880/23705
http://dx.doi.org/10.22028/D291-23649
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/237062019-01-10T07:40:05Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:doctoralThesisdoc-type:ResearchDataciminterface:dnbddc:620
The interplay of gesture, gaze, and speech : analyzing task-based interaction
Das Zusammenspiel von Gestik, Blick und gesprochener Sprache : Analyse anwendungsbasierter Interaktion
Pereira, Gerardine M.
Norrick, Neal R.
ddc:400
Geste
Pragmatik
Interaktion
Blick
Kommunikation
Kohärenz
pragmatics
gesture studies
gaze
common ground
cohesion
This study investigates spoken language data, gesture, and gaze to gain insights into how pairs of interactants shape and coordinate their actions to mutually accomplish a given task. Based on micro-level phenomena consisting of multiple interactive modes, the findings illuminate new implications for the theoretical and methodological approach to language. Embedded in pragmatics and the interactional sociolinguistics approach to discourse as well as David McNeill’s approach to gesture, the research presented investigates topics such as openings of unscripted events, cohesion and reference, repetition as well as common ground and stance taking. Gesture, in particular the pointing gesture, gaze, gaze shifts, and mutual gaze are also analyzed as integral components of language and human communication. As a whole, these individual phenomena are demonstrated to contribute to interactions, constituting each other and creating and shaping joint actions.
This study arrives at an understanding of language which views it as composed of speech, gesture, and other nonverbal modes.
Diese Arbeit untersucht gesprochene Sprache, Gesten und Blick, um Aussagen über dyadische Interaktionen und die Koordination von Aktionen zum Erreichen einer vorgegebenen Aufgabe zu treffen. Basierend auf Mikrophänomenen bestehend aus multiplen interaktiven Modi, zeigen die Forschungsergebnisse neue Erkenntnisse für eine theoretische und methodologische Herangehensweise an Sprache auf. Die Studie siedelt sich im Bereich der Pragmatik, der interaktionalen Soziolinguistik sowie der Gestikstudien nach David McNeill an. In der Forschungsarbeit werden Themen wie die Eröffnung von Interaktionen, Kohärenz und Referenz, Common Ground und Stance Taking sowie Wiederholungen untersucht. Gesten, im besonderen die Zeigegeste, sowie Blick, Blickwechsel und gemeinsamer Blick werden als wesentliche Komponenten von Sprache und menschlicher Kommunikation analysiert. Als eine Einheit gesehen tragen die einzelnen Phänomene zu Interaktionen bei. Sie konstituieren sich gegenseitig und schaffen so "joint actions". Die vorliegende Studie gelangt zu einem Verständnis von Sprache, welches sich aus gesprochener Sprache, Gesten und anderen nonverbalen Modalitäten zusammensetzt.
2015-07-21
2017-07-12T07:36:48Z
2015-07-21
2014
doc-type:doctoralThesis
urn:nbn:de:bsz:291-scidok-61920
hdl:20.500.11880/23706
http://dx.doi.org/10.22028/D291-23650
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/237102019-01-10T07:40:05Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:doctoralThesisdoc-type:ResearchDataciminterface:dnbddc:620
Form and meaning in dialog-based computer-assisted language learning
Form und Bedeutung im dialog-basierten computer-unterstützten Sprachenlernen
Wilske, Sabrina
Pinkal, Manfred
ddc:400
Fremdsprachenunterricht
Computerlinguistik
Sprachdialogsystem
Computergestützes Sprachenlernen
computer-assisted language learning
dialog system
foreign language learning
task-based language learning
feedback
The goal of this thesis is to explore how foreign language learning can be facilitated through the use of intelligent computer-assisted language learning (ICALL) based on natural language processing (NLP) methods. ICALL was provided in the form of a task-based dialog system that gives corrective feedback.We investigated how different parameters of the interaction affect the learning progress. Based on a comprehensive review of existing comparable ICALL applications and the underlying methods and technology, we selected parameters linked to the sophistication and effort required to implement a particular form of interaction and related them to parameters that are based on two much debated issues from the field of second language acquisition (SLA). One is the debate that pits form against meaning and leads to a discussion of the extent to which language instruction should focus on linguistic forms and formal correctness as opposed to emphasizing communicative skills and the ability to use the language to make meaning in the real world. Related to that is the second controversial issue which concerns the dichotomy between implicit and explicit knowledge, learning and instruction: How explicit or implicit should instruction be, how does the degree of explicitness affect the development of explicit and implicit knowledge, and how do these two types of knowledge contribute to language skills? These two general issues are condensed into three different experimental conditions, that differ with regard to how much they constrain the learner input and how explicit the feedback is. More precisely, we compare strictly form-focused activities where the learner input is constrained to supply a grammatical target form with generally unconstrained participation in a meaning-oriented task-based dialog. For the latter, we further compare recast and metalinguistic feedback as implicit and explicit types of feedback respectively. The findings of this study indicate that there are small differences in the language skill development afforded by different types of computer-provided instruction. We find that constrained, explicit form-oriented instruction yields in general greater immediate learning gains, while the free, more implicit and meaning-oriented instruction yields more delayed effects. Similarly, comparing implicit recast feedback with explicit metalinguistic feedback we find that the immediate effects are on par but recast feedback leads to greater delayed effects. These differences interact considerably with other parameters of the experimental setting, in particular with the selected target structures. This suggests that the effectiveness of certain types of instruction is highly dependent on the particular content and goal of the instruction. By using current SLA issues as motivation and guide to develop an ICALL system and an experimental framework this work contributes to the yet small field of existing research and development which integrates ICALL and SLA perspectives.
Das Ziel dieser Arbeit ist es zu untersuchen, wie Anwendungen für intelligentes computerunterstütztes Sprachenlernen (intelligent computer-assisted language learning – ICALL), welche auch Techniken der natürliche Sprachverarbeitung benutzen, das Erlernen von Fremdsprachen unterstützen können. ICALL wird in dieser Arbeit als aufgaben-basiertes Dialogsystem realisiert, welches korrigierendes Feedback gibt. Ausgehend von einer eingehenden Analyse bestehender vergleichbarer ICALL-Systeme und den Methoden und Technologien, die ihnen zugrunde liegen, sowie aktuellen Fragestellungen in der Zweitspracherwerbsforschung (second language acquisition – SLA), untersuchen wir, wie sich verschiedene Interaktionsparameter auf die Lernergebnisse auswirken. Dazu wählen wir einerseits Parameter, die verbunden sind mit dem Aufwand, der für die Realisierung einer bestimmten Interaktionsform nötig ist. Diese setzen wir in Beziehung mit Parametern, die sich aus zwei umstrittenen Fragen in der Spracherwerbsforschung ergeben. In der ersten dieser Fragen geht es um die jeweilige Rolle von Form und Bedeutung von Sprache und ob Sprachunterricht eher auf die korrekte Beherrschung von sprachlichen Strukturen oder eher auf kommunikative Fähigkeiten Wert legen sollte. Im Zusammenhang dazu steht die zweite Streitfrage, in der es um den Gegensatz zwischen impliziten und explizitem Wissen bzw. Lernen geht. Hier wird diskutiert, wie explizit oder implizit Unterricht sein soll, wie der Grad an Explizitheit sich auf explizites und implizites Wissen auswirkt und wie welches Wissen zu sprachlichen Fähigkeiten beiträgt. Diese beiden generellen Fragestellungen sind in drei verschiedenen Experimentbedingungen zusammengefasst, die sich unterscheiden darin wie sehr sie die Eingaben der Lernenden einschränken und wie explizit das Feedback ist. Genauer gesagt vergleichen wir strikt form-fokussierte Übungen, in denen die Lernenden lediglich eine grammatische Zielform eingeben sollen mit offenen Konversationsübungen, in denen die Lernenden alle sprachlichen Mittel frei stehen, um eine praktische Aufgabe zu lösen. Die Verwendung der Zielform wird soll hierbei von der Aufgabe provoziert werden. Für die offene Bedingung vergleichen wir ferner Recast und metalinguistisches Feedback als implizite beziehungsweise explizite Formen von Feedback. Die Ergebnisse der Untersuchung zeigen, dass die unterschiedlichen Übungsbedingungen zu kleinen Unterschieden in der Entwicklung von Sprachkenntnissen führen. Wir stellen fest, dass eingeschränkte, explizite form-orientierte Übungen zu größeren kurzfristigen Lernfortschritten führen,während freie, implizitere und bedeutungsorientierte Übungen zu größeren langfristigen Fortschritten führen. Im Vergleich von implizitem Recast-Feedback und explizitem metalinguistischem Feedback finden wir, dass die kurzfristigen Lernerfolge ähnlich sind, aber Recasts zu länger anhaltenden Fortschritten führen. Diese Unterschiede interagieren allerdings mit anderen Parametern des Experiments, insbesondere mit den zu erlernenden grammatischen Zielstrukturen. Daraus folgern wir, dass die Wirksamkeit bestimmter Instruktionen stark vom spezifischem Inhalt und Ziel der Vermittlung abhängt. Diese Arbeit trägt dazu bei, die bisher nur schwach vertretenden Bezüge zwischen SLA und ICALL zu stärken, indem sie aktuelle SLA-Forschungsfragen als Motivation und Richtlinie für die Entwicklung eines ICALL-Systems und eines dazugehörigen Rahmens für die experimentelle Untersuchung verwendet.
2015-09-22
2017-07-12T07:36:50Z
2015-09-22
2015
2015-10-21
doc-type:doctoralThesis
urn:nbn:de:bsz:291-scidok-62519
hdl:20.500.11880/23710
http://dx.doi.org/10.22028/D291-23654
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/237142019-01-10T07:40:05Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:doctoralThesisdoc-type:ResearchDataciminterface:dnbddc:620
Sprache als Marke von Radioformaten : Versuch eines zielgruppenfokussierten Stationality-Tunings von Nachrichten- und Moderationstexten des Saarländischen Rundfunks
Corporate language for radio stations
Baum, Benjamin
Reich, Ingo
ddc:400
Formatradio
Saarländischer Rundfunk
Moderation
Nachrichtensprache
radio formats
news language
corporate language
stationality
Die vorliegende Arbeit verfolgt zwei Ziele – ein theoretisches und ein praktisches. Zum einen werden die Radioformate des SR, genauer: deren Nachrichten- und Moderationstexte, einer eingehenden linguistischen und medienlinguistischen Analyse unterzogen, um deren zielgruppenspezifische sprachlichen Charakteristika objektiv nachvollziehbar identifizieren zu können. Zum anderen sollen diese Charakteristika über ein rezipientenbasiertes Modell – das über die SINUS-Milieus konkretisierte ›Drei-Adressaten-Modell‹ – zugespitzt und experimentell überprüft werden. Das übergeordnete Ziel ist zu zeigen, dass sich Programm-Marken durch gezieltes Sprach-Branding präziser auf die Hörerwartungen eines jeweils formatspezifischen Settings von Zielgruppen zuschneiden und somit spürbar erfolgreicher am hochkompetitiven Markt der deutschen Radiolandschaft etablieren lassen.
This work has a theoretical and a practical request. First, the radio formats of Saarländischer Rundfunk (SR) – more accurate: the language of moderations and news typical for these formats – are linguistically analyzed by their target group specific characteristics to make them objectively identifiable. Secondly, these characteristics are linguistically re-branded and experimentally checked with the help of SINUS-Milieu based on the Three Receiver Model developed by the author. This bisected proceeding aims at empirically demonstrating how radio format's branding could be calibrated even more precisely as well as effectively to listening expectations and linguistic habits of a format specific set of target groups in order to make public law radio stations even more competitive in the German radio landscape.
2016-05-24
2017-07-12T07:36:53Z
2016-05-24
2016
doc-type:doctoralThesis
urn:nbn:de:bsz:291-scidok-65223
hdl:20.500.11880/23714
http://dx.doi.org/10.22028/D291-23658
ger
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/237152019-01-10T07:40:05Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:doctoralThesisdoc-type:ResearchDataciminterface:dnbddc:620
Die Sprache der spanischen Internetwerbung : eine linguistische Analyse von Werbeformen im Web 1.0 und Web 2.0
The language of Spanish online advertising : a linguistic analysis of Web 1.0 and Web 2.0 forms of advertising
Besse, Nathalie
Polzin-Haumann, Claudia
ddc:400
Angewandte Linguistik
Werbesprache
Online-Werbung
Öffentlichkeit
Soziales Netzwerk
applied linguistics
advertising language
online advertising
public sphere
social networking sites
Die vorliegende Arbeit bietet einen Einblick in die weite Welt der aktuellen spanischen Internetwerbung und ihrer Sprache. Im Fokus dieser sprachwissenschaftlichen Untersuchung stehen drei Formen der Onlinewerbung, die in der gegenwärtigen Gesellschaft von besonderer Relevanz sind: die Bannerwerbung, die Microsites und die Werbeseiten in den sogenannten Sozialen Netzwerken wie Facebook und Twitter. Die vorwiegend synchrone, exemplarische und qualitative Analyse, die sich auf ein Untersuchungskorpus bestehend aus spanischem Onlinewerbematerial aus den Jahren 2013, 2014 und 2015 stützt, wird anhand eines umfassenden Analysemodells durchgeführt und mit Forschungserkenntnissen zur “klassischen” Printwerbesprache in Verbindung gebracht. Somit präsentiert die Arbeit eine breitgefächerte und reichhaltige Untersuchung, die außerdem das Konzept des öffentlichen Raums in die sprachwissenschaftliche Betrachtung der Werbesprache integriert, wobei insbesondere auf relevante Aspekte wie Crossmedia-Werbekampagnen und virale Werbung eingegangen wird. In der detaillierten sprachlichen Analyse werden auf der verbalen, paraverbalen, visuellen und auditiven Ebene diverse Merkmale herausgearbeitet und anschließend zusammengeführt und hinsichtlich Funktion und Wirkung interpretiert, sodass der Leser ein umfassendes Bild – eine Momentaufnahme – dieser recht jungen Art der Werbesprache erhält.
The present work offers an insight into the wide world of current Spanish online advertising and its language. This linguistic analysis focuses on three forms of online advertising that are highly relevant in today’s society: banner web ads, microsites and advertising pages on social networking sites like Facebook and Twitter. The primarily synchronic, exemplary and qualitative analysis, which is based on a corpus compiled of Spanish online advertising in the years of 2013, 2014 and 2015, will be performed using a thorough model of analysis and related to research findings of “classical” print advertising. Thus, this work presents a broad and rich analysis which in addition incorporates the concept of the public sphere into the linguistic study of the advertising language, particularly focusing on relevant aspects like cross-media campaigns and viral advertising. In the detailed analysis of the language various aspects on the verbal, paraverbal, visual and auditive level will be considered and subsequently brought together and interpreted in terms of function and effect, with the result that the reader gets a detailed picture – a snapshot – of this type of relatively young advertising language.
2016-08-11
2017-07-12T07:36:55Z
2016-08-11
2016
doc-type:doctoralThesis
urn:nbn:de:bsz:291-scidok-65980
hdl:20.500.11880/23715
http://dx.doi.org/10.22028/D291-23659
ger
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/237162019-01-10T07:40:05Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:doctoralThesisdoc-type:ResearchDataciminterface:dnbddc:620
Pluricentric languages : automatic identification and linguistic variation
Plurizentrische Sprachen : automatische Spracherkennung und linguistische Variation
Zampieri, Marcos
van Genabith, Josef
ddc:400
Linguistik
Korpus <Linguistik>
Computerlinguistik
Sprachvariante
language identification
language varieties
natural language processing
computational linguistics
Language Identification is a well-known research topic in NLP. State-of-the-art methods consist of the application of n-gram language models to distinguish languages automatically with well over 95% accuracy. This level of success is obtained when discriminating between languages that are typologically not closely related (e.g. Finnish and Spanish), or due to the contrast between languages with unique character sets such as Greek or Hebrew. Recent studies show that one of the main difficulties of n-gram based methods is the identification of closely related languages. The research presented in this thesis goes one step further and investigates computational methods to identify standard national varieties of pluricentric languages such as Portuguese, Spanish, French, and English. It explores different computational methods and different sets of features for this task that go beyond character and word language models. The main objective is to investigate the extent to which it is possible to identify language varieties automatically in both monolingual and in real-world (multilingual) settings and to establish what are the main challenges of this task in comparison to general purpose language identification models. This research shows, for example, that it is possible to discriminate between Brazilian and European Portuguese with 99.8% accuracy using journalistic texts. Another contribution of this thesis is the use of linguistically motivated features such as POS tags and morphological information to discriminate between language varieties with results of up to 83.1% accuracy in discriminating between Mexican and Peninsular Spanish texts. An additional aspect of this thesis is the use of classification output in corpus-driven contrastive linguistics research as explained in Chapter 6. Classification methods combined with linguistically meaningful features are able to provide empirical evidence on the convergences and divergences of language varieties in terms of lexicon, orthography, morphology and syntax.
Die Sprachidentifikation ist ein wichtiges Forschungsthema in der Computerlinguistik. Aktuelle Verfahren nutzen n-gram-Sprachmodelle, um Sprachen automatisch voneinander zu unterscheiden, und erzielen dabei Genauigkeiten von über 95%. Entsprechende Leistungen werden dabei insbesondere dann erzielt, wenn die Algorithmen Sprachen, die typologisch nicht eng miteinander verwandt sind (z.B. Finnisch und Spanisch), klassifizieren oder aber auf Sprachen mit eindeutigen Zeichensätzen wie Griechisch oder Hebräisch. Studien zeigen jedoch, dass eine der Hauptschwierigkeiten n-gram-basierter Verfahren in der Identifikation ähnlicher Sprachen besteht. Die vorliegende Arbeit geht daher einen Schritt über existierende Methoden hinaus und untersucht Identifikationsverfahren für plurizentrische Sprachen wie das Portugiesische, Spanische, Französische und Englische. Dafür werden Algorithmen und Merkmale verwendet, die reichere Mengen linguistischer Information kodieren als zeichen- oder wortbasierte Sprachmodelle. Das Hauptziel der Arbeit besteht dabei darin zu untersuchen, inwieweit es möglich ist, Sprachvarietäten sowohl in einsprachigen als auch in mehrsprachigen Settings automatisch zu identifizieren. Auf Grundlage dieser Experimente ist es darüber hinaus müglich zu bewerten, welche die wesentlichen Schwierigkeiten des beschriebenen Ansatzes im Vergleich zu generischen Modelle sind. Ein Nebenaspekt dieser Arbeit ist zudem die Verwendung des Klassifikationsoutputs in der korpus-basierten kontrastiven Linguistik, denn Klassifikationsverfahren auf Grundlage interpretierbarer sprachlicher Merkmale sind in der Lage, empirische Erkenntnisse über die Konvergenzen und Divergenzen dieser Sprachvarietäten in Bezug auf Lexikon, Rechtschreibung, Morphologie und Syntax zu liefern.
2016-11-04
2017-07-12T07:36:55Z
2016-11-04
2016
doc-type:doctoralThesis
urn:nbn:de:bsz:291-scidok-66749
hdl:20.500.11880/23716
http://dx.doi.org/10.22028/D291-23660
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/237192019-01-10T07:40:05Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:doctoralThesisdoc-type:ResearchDataciminterface:dnbddc:620
Understanding English-German contrasts : a corpus-based comparative analysis of ellipses as cohesive devices
Ellipsen als Textkohäsionsmittel : eine kontrastive Korpusstudie für das Sprachenpaar Englisch-Deutsch
Menzel, Katrin
Steiner, Erich
ddc:400
Textlinguistik
Textkohärenz
Kontrastive Linguistik
Ellipse <Linguistik>
Vergleichende Sprachwissenschaft
Korpus <Linguistik>
Englisch
text linguistics
cohesion
ellipses
contrastive linguistics
corpus linguistics
The objective of this dissertation is to develop a sound conceptual basis for a cross-linguistic study on ellipses as omission phenomena in English and German. The dissertation has a particular focus on endophoric ellipses as cohesive devices creating textual links and contributing to textual coherence. It takes a relatively theory-neutral, broadly functional approach to describing ellipses underpinned with observation statements and examples of real-life ellipsis use based on data from a bilingual corpus of written and spoken language. In this way, the present study has the potential to arbitrate between competing academic theories that concern the nature of ellipses. The choice of focus in the dissertation is motivated by the fact that cohesive devices, including ellipses, are an important topic in text-linguistics and discourse analysis. However, one could rightfully feel dissatisfied with the current lack of a coherent overarching taxonomy for ellipses as cohesive devices. Previous work on ellipses as a broad class of reduced and non-canonical syntactic constructions has often been limited by inconsistent descriptions, conflicting theories or the micro-level analysis of particular isolated phrases or sentences with little practical relevance. It can be observed that ellipses in many cases are not very well defined in the available literature on discourse analysis and textuality where we frequently find rather vague or sketchy explanations of ellipses or examples that, in my opinion, do not always illustrate the concept of ellipsis correctly. These problems of definition represent a research gap which hinders the development of clear hypotheses and the possibility of drawing meaningful conclusions from the analysis of data. This study provides a long-needed systematic reassessment of the ellipsis description suggested by Halliday and Hasan in the context of a growing and diverse body of literature on elliptical structures.
In this study, I analyse data from a corpus as the more recent studies in contrastive linguistics have emphasised the importance of corpus-based methodologies. Authentic corpus examples embedded in their respective textual contexts are a better way to describe a given language pair than the discussion of simplified, theoretical examples that may restrict our understanding of grammar based on idealised language use and personal intuition. Corpus data in contrastive linguistics allow us to study the frequencies of certain patterns in English compared to German or in certain text types. Comparative corpora and aligned parallel corpora expose learners to authentic language contexts in a structured way and are indispensable for the development of realistic and learner-adequate language models. In order to understand ellipses as cohesive devices, it is necessary to extend the analysis beyond an enumeration of simplified, theoretical examples that rarely occur in actual data, as if language was an abstract entity, not embedded in rich discourse contexts and actual contexts of language use. This study emphasises the value of corpus studies as the patterns and distribution of elliptical structures found in the data partly deviate from assumptions and standard examples from the theoretical literature. Therefore, in this dissertation the frequencies, types and functions of ellipses in an English-German corpus of written and spoken language are analysed in order to lay the foundations for a discourse-oriented contrastive grammar on textual cohesion and coherence with relevance to theoretical and applied linguistics, translation studies and foreign language pedagogy.
Gegenstand der Dissertation ist eine kontrastive Analyse von elliptischen Strukturen im Englischen und Deutschen, die als potentielle Textverknüpfungsmittel mit bereits vorerwähnten Textelementen in Verbindung stehen können. Bei Ellipsen handelt es sich um ein spezielles Kohäsionsmittel, das sich von den anderen lexikalischen und grammatischen Mitteln zur Textverknüpfung dadurch unterscheidet, dass eine Relation nicht zwischen zwei eigentlichen Textelementen an der Textoberfläche hergestellt wird, sondern zwischen einem Antezedens im Text und einer darauf folgenden Auslassung eines grammatisch-syntaktisch notwendigen Satz- oder Phrasenbestandteils. Ellipsen gelten bisher als besonders schwierig zu beschreibende Strukturen, die mit empirischen Methoden schwer erfassbar sind. Ein wesentliches Ergebnis dieser Dissertation besteht darin, dass sie den Begriff der kohäsiven Ellipse in Abgrenzung von anderen Phänomenen präzisiert und operationalisierbar macht und ihn dann für eine konkrete sprachkontrastive Analyse nutzt. Diese Arbeit leistet einen Beitrag zur kontrastiven Beschreibung der englischen und deutschen Grammatik mit einem Schwerpunkt auf Texten als Kommunikationsinstrumenten. Hierzu wurden verschiedene Subtypen elliptischer Strukturen und ihre gegebenenfalls vorhandenen textuellen Bezugselemente in einem bilingualen Korpus annotiert und hinsichtlich ihrer Häufigkeiten ausgewertet. Es wird der Frage nachgegangen, wie sich Englisch und Deutsch im Hinblick auf den Gebrauch von kohäsiven Ellipsen unterscheiden oder ähneln, aber auch welche Rolle verschiedene Textproduktionstypen (Originale vs. Übersetzungen) und Unterschiede zwischen verschiedenen Textsorten und gesprochensprachlich oder schriftsprachlich konzipierten Texten spielen. Nach der Entwicklung eines detaillierten Annotationsschemas und der Annotation des GECCo-Korpus wird untersucht, wie häufig kohäsive Ellipsen und verschiedene Subtypen dieser Kategorie in den verwendeten Korpusdaten vorkommen. Die englischen und deutschen Korpussektionen weisen insgesamt fast identische Häufigkeiten an Ellipsen auf. In den deutschen Daten lässt sich allerdings eine größere Varianz beobachten. Die Ergebnisse sind sowohl für die vergleichende Sprachforschung von Relevanz, aber auch für den Fremdsprachenunterricht und die Ausbildung von Übersetzern. Übersetzer, Sprachlerner und Autoren fremdsprachlicher Texte sollten sich sprachübergreifend über typische syntaktische Muster und Kohäsionsmittel in unterschiedlichen Kommunikationsszenarien bewusst sein. Die Arbeit bietet also sowohl Anschlussmöglichkeiten für die Praxis als auch für die weitere Forschung.
2017-01-25
2017-07-12T07:36:56Z
2017-01-25
2016
doc-type:doctoralThesis
urn:nbn:de:bsz:291-scidok-67651
hdl:20.500.11880/23719
http://dx.doi.org/10.22028/D291-23663
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/237212019-01-10T07:40:05Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:ResearchDatadoc-type:Otherciminterface:dnbddc:620
Identifying English gerunds and their translation equivalents in an English-German translation corpus
Menzel, Katrin
ddc:400
Gerundium
Kontrastive Linguistik
Englisch
Korpus <Linguistik>
Übersetzungswissenschaft
Linguistik
gerund
corpus linguistics
translation corpora
contrastive linguistics
translation strategies
The gerund is a peculiarity of English grammar that has no exact equivalent in German. It displays both nominal and verbal properties. Finding a clear-cut definition of gerunds is challenging and still the subject of debate. This diploma thesis aims to identify English gerunds, to compare them to other -ing forms and to take into account in what historical context gerunds emerged. It briefly compares them to gerund-like forms in other Indo-European languages and looks at typical patterns and functions that are associated with English gerunds. By providing a systematic analysis of corpus passages containing gerunds that are identified via corpus queries and by analysing their frequencies and their German equivalents in an English-German translation corpus, this thesis aims to identify the most common strategies that translators use in different textual registers for translating gerunds into German.
Gerunds sind eine Besonderheit der englischen Grammatik, für die es keine exakt vergleichbare grammatische Struktur im Deutschen gibt, welche alle Funktionen der englischen Gerunds erfüllt. Gerunds sind gekennzeichnet sowohl durch nominale als auch verbale Eigenschaften. In dieser Arbeit werden englische Gerunds beschrieben und von anderen -ing-Formen abgegrenzt unter Berücksichtigung des historischen Kontextes, in dem Gerunds in der englischen Sprache entstanden. In einer Untersuchung in einem englisch-deutschen Parallelkorpus werden Gerunds durch gezielte Korpusabfragen identifiziert und in Bezug auf ihre Häufigkeiten in den jeweiligen Korpusregistern und die gewählten Übersetzungsstrategien und Entsprechungen in den jeweiligen deutschen Korpusdaten ausgewertet.
2017-02-10
2017-07-12T07:36:56Z
2017-02-10
2010
doc-type:Other
urn:nbn:de:bsz:291-scidok-67726
hdl:20.500.11880/23721
http://dx.doi.org/10.22028/D291-23665
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/237222019-01-10T07:40:05Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:doctoralThesisdoc-type:ResearchDataciminterface:dnbddc:620
States, events, and generics: computational modeling of situation entity types
Zustände, Ereignisse und Generizität: computergestützte Modellierung von Situationstypen
Friedrich, Annemarie Silke
Pinkal, Manfred
ddc:400
Computerlinguistik
Generizität
Aktionsart
Aspekt
aktionsart
aspect
generics
This dissertation addresses the computational modeling of situation entity types (Smith, 2003), an inventory of clause types capturing aspectual and semantic distinctions that are relevant for various natural language processing tasks including temporal discourse processing and information extraction. The focus of our work is on automatically identifying the situation entity types STATE, ("John is tall"), EVENT ("John won the race"), GENERALIZING SENTENCE ("John cycles to work") and GENERIC SENTENCE ("Elephants are mammals").
We create a large corpus of texts from a variety of genres and domains, annotating each clause with its situation entity type and with linguistic phenomena that we identify as relevant for distinguishing the types. Specifically, we mark each clause with its lexical aspectual class, which takes the values stative ("be," "know") or dynamic ("run," "win"), and whether the clause is episodic or habitual, i.e., whether it refers to a particular event or whether it generalizes over situations. In addition, we annotate whether a clause's subject is generic or not, i.e., whether it refers to a kind ("dogs") or to a particular individual ("my dog"). Our human annotators achieve substantial agreement for all of these annotation tasks. Based on this corpus, we conduct a detailed corpus-linguistic study of situation entity type distributions and variation in inter-annotator agreement depending on the genre.
In the second part of this dissertation, we create computational models for each of the above mentioned classification tasks in a supervised setting, advancing the state-of-the-art in each case. We find a range of syntactic-semantic features including distributional information and corpus-based linguistic indicators to be helpful. Using a sequence labeling method, we are able to leverage discourse information in order to improve the recognition of genericity, which often cannot be decided without taking the sentences in the context into account. We show our models to perform robustly across domains. Our publicly available data set and implementation form the basis for future research on situation entity types and related aspectual phenomena, among others as a preprocessing step into various natural language processing tasks.
Die vorliegende Dissertation befasst sich mit der computergestützten Modellierung von Situationstypen (Smith, 2003), einem Inventar von Satz- bzw. Teilsatztypen, das aspektuelle und semantische Unterscheidungen erfasst, die für verschiedene Bereiche der maschinellen Sprachverarbeitung relevant sind. Zu diesen Bereichen zählen beispielsweise die Erkennung von temporalen Diskursrelationen und die Informationsextraktion. Der Fokus dieser Arbeit liegt auf der automatischen Identifikation der Situationstypen Zustand, (STATE, "John ist groß"), Ereignis (EVENT, "John gewann das Rennen"), generalisierender Satz (GENERALIZING SENTENCE, "John fährt mit dem Fahrrad zur Arbeit") und generischer Satz (GENERIC SENTENCE, "Elefanten sind Säugetiere").
Als Grundlage für die Untersuchung wurde ein Korpus von Texten mehrerer Genres und Domänen auf Teilsatzebene manuell mit Situationstypen und weiteren für die Unterscheidung dieser Typen relevanten linguistischen Phänomenen annotiert. Jeder Teilsatz wird mit den Aktionsarten statisch ("sein", "wissen") oder dynamisch ("laufen", "gewinnen") annotiert und als episodisch oder habituell eingestuft, d.h., ob er ein ein bestimmtes Ereignis oder eine Generalisierung über Situationen beschreibt. Außerdem wird für jedes Subjekt annotiert, ob es generisch ist, d.h., ob es auf eine natürliche Gattung ("Hunde") oder auf ein bestimmtes Individuum ("mein Hund") referiert. Bei allen manuellen Annotationsaufgaben wird eine substanzielle Übereinstimmung erreicht. Eine auf diesem Korpus basierende detaillierte korpuslinguistische Studie zeigt genreabhängige Variationen in der Verteilung der Situationstypen und bei der jeweils zwischen den Annotatoren erreichten Übereinstimmung.
Der zweite Teil der Arbeit beschreibt die computergestützte Modellierung der oben erwähnten Klassifikationsaufgaben mit Hilfe von überwachten Lernalgorithmen. Bei allen vier Klassifikationsaufgaben verbessern die hier vorgestellten Modelle den jeweiligen Stand der Technik. Dabei zeigt sich, dass eine Auswahl von syntaktisch-semantischen Attributen, unter anderem distributionelle Information und korpusbasierte linguistische Indikatoren, für die Modellierung geeignet ist. Außerdem wird eine Methode zur Annotation von Sequenzen eingesetzt, die Diskursinformation nutzt, um die Genauigkeit bei der Erkennung von generischen Ausdrücken zu verbessern. Dies ist oft -- auch manuell -- nur unter Einbeziehung weiterer Sätze aus dem lokalen Diskurskontext möglich. Die hier vorgestellten Modelle zeigen auch über Genre-Grenzen hinweg eine robuste Performanz. Ein frei verfügbares Datenset und die frei verfügbare Implementierung bieten Ansatzpunkte für weitere Forschung im Bereich von Situationstypen und von verwandten aspektuellen Phänomenen, wie zum Beispiel die Integration in Vorverarbeitungsschritte diverser maschineller Sprachverarbeitungssysteme.
2017-05-24
2017-07-12T07:36:57Z
2017-05-24
2017
doc-type:doctoralThesis
urn:nbn:de:bsz:291-scidok-68404
hdl:20.500.11880/23722
http://dx.doi.org/10.22028/D291-23666
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/238442019-01-10T07:29:31Zcom_20.500.11880_6105com_20.500.11880_2col_20.500.11880_6106col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:ResearchDataciminterface:dnbddc:620
Idioms in example-based machine translation
Anastasiou, Dimitra
ddc:400
Linguistik
Automatische Übersetzung
Phraseologie
METIS-II
idioms theory
topological field model
permutations
matching
Machine Translation (MT) has progressed in parallel with idiom research throughout the years, since they are both interdisciplinary fields. However, most researchers and MT systems regard idioms as a thorn in MT';s flesh. When it comes to idiom translation, it becomes really a difficult task for human translators, let alone for MT systems. The construction of an idiom database is complex and time-consuming, since there are not idiom corpora widely available and must be either manually constructed or consist of real examples carefully filtered. We incorporated both cases into our data sets and proved that idiom processing based on syntactic patterns of the topological field model is thoroughly feasible.
2008-09-03
2017-07-12T07:41:20Z
2008-09-03
2008
2008-09-10
doc-type:conferenceObject
urn:nbn:de:bsz:291-scidok-16848
hdl:20.500.11880/23844
http://dx.doi.org/10.22028/D291-23788
eng
openAccess
cc_by-nc-nd
https://creativecommons.org/licenses/by-nc-nd/2.0/
oai:publikationen.sulb.uni-saarland.de:20.500.11880/255142019-01-10T07:27:47Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:truedoc-type:articleddc:400open_accessdoc-type:ResearchDataciminterface:dnbddc:620
Zur Erfassung der Funktionsverbgefüge bei einer maschinellen Analyse
Zimmermann, Harald H.
ddc:400
Syntaktische Analyse
Automatische Übersetzung
Linguistische Datenverarbeitung
Der Beitrag widmet sich - mit dem Beispiel der Analyse von Funktionsverbgefügen - bereits den Themen, die in den folgenden Jahren in der Computerlinguistik hohe Aufmerksamkeit beanspruchen, v.a. der Wörterbucharbeit, der Homographenreduktion, der syntaktischen Analyse und den Möglichkeiten und Problemen der maschinellen Übersetzung.
2006-11-10
2017-07-12T07:49:52Z
2006-11-10
1967
doc-type:article
urn:nbn:de:bsz:291-scidok-7029
hdl:20.500.11880/25514
http://dx.doi.org/10.22028/D291-25458
ger
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/255152019-01-10T07:27:47Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:truedoc-type:articleddc:400open_accessdoc-type:ResearchDataciminterface:dnbddc:620
Dokumentation eines Programms zur Analyse russischer Sätze. - Teil 1
Janda, Josef W.
Rothkegel, Annely
Zimmermann, Harald H.
ddc:400
Automatische Übersetzung
Russisch
Linguistische Datenverarbeitung
Mit Joseph Janda und Annely Rothkegel dokumentiert Zimmermann ein bereits in den 50er und 60er Jahren in den USA auf der Grundlage des Georgetown-Verfahrens entwickeltes maschinelles Analysesystem mit dem Ziel, die Anwendbarkeit für die deutsche Sprache zu prüfen. Es handelt sich vermutlich um die einzige Beschreibung eines der ältesten maschinellen Übersetzungssysteme, das nach dem deterministischen Prinzip funktionierte und in dem Regeln und Programm ineinander eingebettet waren.
2006-11-13
2017-07-12T07:49:52Z
2006-11-13
1969
2006-11-17
doc-type:article
urn:nbn:de:bsz:291-scidok-7033
hdl:20.500.11880/25515
http://dx.doi.org/10.22028/D291-25459
ger
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/255162019-01-10T07:27:47Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:truedoc-type:articleddc:400open_accessdoc-type:ResearchDataciminterface:dnbddc:620
Dokumentation eines Programms zur Analyse russischer Sätze. - Teil 2
Janda, Josef W.
Rothkegel, Annely
Zimmermann, Harald H.
ddc:400
Automatische Übersetzung
Russisch
Linguistische Datenverarbeitung
Mit Joseph Janda und Annely Rothkegel dokumentiert Zimmermann ein bereits in den 50er und 60er Jahren in den USA auf der Grundlage des Georgetown-Verfahrens entwickeltes maschinelles Analysesystem mit dem Ziel, die Anwendbarkeit für die deutsche Sprache zu prüfen. Es handelt sich vermutlich um die einzige Beschreibung eines der ältesten maschinellen Übersetzungssysteme, das nach dem deterministischen Prinzip funktionierte und in dem Regeln und Programm ineinander eingebettet waren.
2006-11-13
2017-07-12T07:49:53Z
2006-11-13
1970
2006-11-17
doc-type:article
urn:nbn:de:bsz:291-scidok-7056
hdl:20.500.11880/25516
http://dx.doi.org/10.22028/D291-25460
ger
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/255232019-01-10T07:27:47Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:ResearchDataciminterface:dnbddc:620
Multifunctional dictionaries
Zimmermann, Harald H.
ddc:400
Wörterbuch
Datenschutz
Datensicherung
Sprachverarbeitung
Thesaurus
In diesem Artikel geht es um multifunktionale Lexikonsysteme für unterschiedlichste Anwendungen. Es wird besonders eingegangen auf Datenschutz und -sicherheit, Schnittstellen, Nutzeranforderungen und Anwendungen in den Bereichen automatische Sprachverarbeitung, Terminologielexika, Thesauri, Standard- und Fachsprachen.
2006-11-17
2017-07-12T07:49:54Z
2006-11-17
1984
2006-11-17
doc-type:conferenceObject
urn:nbn:de:bsz:291-scidok-7181
hdl:20.500.11880/25523
http://dx.doi.org/10.22028/D291-25467
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/255242019-01-10T07:27:47Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:ResearchDataciminterface:dnbddc:620
Value-added coding of electronic dictionaries for the LOGOS machine translation system
Zimmermann, Harald H.
ddc:400
Lexikon
Wörterbuch
Linguistische Datenverarbeitung
Automatische Übersetzung
Machine translation requires dictionaries with special codings of morphologic, syntactic and semantic information. This relates to the format, content and depth of the coding scheme. The author describes methods of extraction of terminology and dictionary data from bilingual text files (text and vocabulary alignment). In addition, semi-automatic coding processes are discussed which are based on internal data and their ability to integrate with the LOGOS MT software.
2006-11-17
2017-07-12T07:49:54Z
2006-11-17
1995
2006-11-17
doc-type:conferenceObject
urn:nbn:de:bsz:291-scidok-7215
hdl:20.500.11880/25524
http://dx.doi.org/10.22028/D291-25468
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/255252019-01-10T07:27:47Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:truedoc-type:articleddc:400open_accessdoc-type:ResearchDataciminterface:dnbddc:620
Stand und Probleme der maschinellen Übersetzung
Zimmermann, Harald H.
ddc:400
Automatische Übersetzung
Linguistische Datenverarbeitung
Zimmermann resümiert die Entwicklung der maschinellen Übersetzung in Theorie und Praxis und stellt fest, dass zumindest eine der Beschränkungen, die der ALPAC-Report im Jahre 1966 als Gründe für die Unmöglichkeit einer FAHQT (fully automatic high-quality translation) genannt hat, nicht mehr gilt, nämlich die Unzulänglichkeit der Datentechnik: "Die Realisierung eines MT-Systems im Heimcomputer ist in den Bereich des ökonomisch und technisch Möglichen gerückt." Das Hauptaugenmerk wird aber in den kommenden Jahren eher auf einer computer"gestützten" Übersetzung liegen.
2006-11-17
2017-07-12T07:49:54Z
2006-11-17
1980
doc-type:article
urn:nbn:de:bsz:291-scidok-7239
hdl:20.500.11880/25525
http://dx.doi.org/10.22028/D291-25469
ger
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/255312019-01-10T07:27:47Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:ResearchDataciminterface:dnbddc:620
Multilinguale Anwendungen der Sprachdatenverarbeitung in Referenz-Informationssystemen
Kroupa, Edith
Zimmermann, Harald H.
ddc:400
Automatische Übersetzung
Linguistische Datenverarbeitung
Informationssystem
Zusammen mit Edith Kroupa berichtet Zimmermann über das Projekt MARIS, in dem im Auftrag des Bundesforschungsministeriums (BMFT) der Einsatz der maschinellen Übersetzung und der automatischen Indexierung zur Überwindung von Sprachbarrieren in Fachinformationssystemen mit dem Ziel der Verbesserung des Information Retrieval für ausgewählte Bereiche (Bauwesen, Normendokumentation und Sozialwissenschaften) erprobt wird.
2006-11-17
2017-07-12T07:49:55Z
2006-11-17
1987
doc-type:conferenceObject
urn:nbn:de:bsz:291-scidok-7286
hdl:20.500.11880/25531
http://dx.doi.org/10.22028/D291-25475
ger
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/255432019-01-10T07:27:47Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:truedoc-type:articleddc:400open_accessdoc-type:ResearchDataciminterface:dnbddc:620
Stand und Perspektiven der Sprachtechnologie : mit dem Beispiel der Maschinellen Übersetzung
Zimmermann, Harald H.
ddc:400
Automatische Übersetzung
Digitale Sprachverarbeitung
Sprachverarbeitung
Ausgehend von einer Betrachtung grundsätzlicher Schwierigkeiten der Sprachverarbeitung werden einige Anregungen zu zukünftigen Entwicklungen der MÜ vorgestellt. Dazu gehören die automatische Erkennung von Fachgebieten, die Erkennung von Eigennamen, satzübergreifende Diasmbiguierung, Flexibilität in Bezug auf Textsorten, Standards für MÜ-Systeme, Interaktiv-Übersetzung und eine erhebliche Ausweitung der Lexika.
2007-02-14
2017-07-12T07:49:58Z
2007-02-14
2003
2007-02-14
doc-type:article
urn:nbn:de:bsz:291-scidok-7435
hdl:20.500.11880/25543
http://dx.doi.org/10.22028/D291-25487
ger
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/255552019-01-10T07:27:48Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:ResearchDataciminterface:dnbddc:620
Überlegungen zur Analyse von Erpresserschreiben
Zimmermann, Harald H.
ddc:400
Automatische Sprachanalyse
Kriminalistik
Erpressung
Die Erschließung von Erpresser- und Drohbriefen soll einerseits bei der Ermittlung und Identifikation von Erpressern usf. helfen, andererseits auch gutachtlich als Beweismaterial genutzt werden können. Dies entspricht bereits der Zielsetzung des Systems KISTE.
2007-02-22
2017-07-12T07:50:00Z
2007-02-22
2000
2007-02-22
doc-type:conferenceObject
urn:nbn:de:bsz:291-scidok-7698
hdl:20.500.11880/25555
http://dx.doi.org/10.22028/D291-25499
ger
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/255612019-01-10T07:27:48Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:ResearchDataciminterface:dnbddc:620
Linguistic-technical aspects of machine translation
Zimmermann, Harald H.
ddc:400
Automatische Übersetzung
Linguistische Datenverarbeitung
To allow to compare computer aided translation (CAT) and machine translation (MT) systems, essential criteria and typical exponents of the various concepts are presented.
2007-02-23
2017-07-12T07:50:02Z
2007-02-23
1987
2007-02-23
doc-type:conferenceObject
urn:nbn:de:bsz:291-scidok-7309
hdl:20.500.11880/25561
http://dx.doi.org/10.22028/D291-25505
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/255662019-01-10T07:27:48Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:trueddc:400open_accessdoc-type:ResearchDataciminterface:dnbdoc-type:workingPaperddc:620
Zum Sprachenproblem in der Europäischen Union
Zimmermann, Harald H.
ddc:400
Sprache
Europäische Union
Sprachbarriere
Computerunterstütztes Verfahren
Automatische Übersetzung
Die Vielfalt der Sprachen ist ein spezifischer und zu bewahrender Bestandteil des sich vereinigenden Europa. Sprache und Kultur sind eng miteinander verbunden und bedingen einander. Andererseits bilden Sprachen auch Barrieren und Grenzen dort, wo Information und Kommunikation immer wichtiger wird, nicht nur in Wirtschaft und Wissenschaft. Bei der Lösung dieses Problems muss bereits kurzfristig - vorwiegend aus ökonomischen Gründen - von dem "Gleichbehandlungskonzept" abgewichen werden, ohne dadurch die Kultursprachen abzustufen.
2007-02-23
2017-07-12T07:50:02Z
2007-02-23
1992
doc-type:workingPaper
urn:nbn:de:bsz:291-scidok-7392
hdl:20.500.11880/25566
http://dx.doi.org/10.22028/D291-25510
ger
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai:publikationen.sulb.uni-saarland.de:20.500.11880/255672019-01-10T07:27:48Zcom_20.500.11880_2col_20.500.11880_3has-source-swb:truedoc-type:articleddc:400open_accessdoc-type:ResearchDataciminterface:dnbddc:620
Towards standardisation in European language technology
Zimmermann, Harald H.
ddc:400
Sprache
Standardisierung
Linguistische Datenverarbeitung
Europa
There is no industrial development without standards. Therefore, the definition and the application of industrial standards in Language Industry are an urgent and indispensable need.
2007-02-23
2017-07-12T07:50:02Z
2007-02-23
1992
doc-type:article
urn:nbn:de:bsz:291-scidok-7401
hdl:20.500.11880/25567
http://dx.doi.org/10.22028/D291-25511
eng
openAccess
Alle Ressourcen in diesem Repository sind urheberrechtlich geschützt
oai_dc///ddc:400/100