Swiss Ai Research Overview Platform
Le projet vise à développer une compréhension générale de la manière dont les déclarations de politique des agents étatiques sont interprétées, en utilisant des séries de déclaration de politique et leurs interprétations par les médias, en annotant manuellement ces dernières, et en utilisant ensuite l’apprentissage automatique (machine learning ou ML, en Anglais) et les techniques de traitement automatique de langage naturel (natural language processing ou NLP, en Anglais) afin de développer un modèle qui générera lui-même des annotations à partir des déclarations. Nous nous pencherons sur deux types de déclarations, la politique étrangère et la politique monétaire, dans trois pays différents. Les interprétations de ces déclarations proviendront de journaux idéologiquement opposés, que nous annoterons en termes de motivations attribuées et de prédictions conditionnelles, entre autres. Nous utiliserons ensuite les technique d’apprentissage automatique afin de développer et d’entraîner des modèles d’apprentissage approfondi (deep learning, en Anglais) d’implication textuelle et d’inférence qui utilisent l’information syntaxique et sémantique des annonces (qu’elle soit générale ou spécifique au domaine en question) pour construire une relation allant des annonces aux annotations. Les modèles seront examinés afin de distinguer entre, d’une part, les caractéristiques spécifiques au pays et au domaine d’application des interprétations des annonces, et, de l’autre, ceux généralisables, afin d’appliquer ces derniers à d’autres domaines. Le projet fait appel à des connaissances spécialisées en sciences politiques (politique étrangère) et en sciences économiques (politique monétaire) en concomitance avec les outils méthodologiques de la linguistique computationnelle. Les tâches sous-jacentes incluent la collecte de documents d’archives, le développement et l’application de schémas d’annotation textuelle, ainsi que la construction de modèles d’implication textuelle.
The basic idea of the project is to develop a general understanding of how state agencies' policy announcements are interpreted by taking streams of policy announcements and interpretations, annotating (coding) the interpretations by hand, then using machine learning (ML) and natural language processing (NLP) techniques to develop a model which generates annotations from announcements. Specifically, we will use streams of two different types of policy announcements, each for two countries (three in total), one on foreign policy related issues and the other on central bank monetary policy; we will also use streams of one particular type of interpretation, namely journalistic accounts in ideologically different newspapers; and we will annotate the journalistic accounts in terms of attributed motives, conditional predictions, and other ways in which interpreters typically gloss policy announcements. We will then use ML techniques to develop and train deep learning models of textual entailment and inference which use syntactic and semantic (both in general and for specific domains) information in the announcement texts to map from announcements to annotations. Those models will be examined to distinguish between issue-specific and country-specific) features of interpretation of policy announcements and more general, cross-domain features, such that the latter can be applied to other issue domains. The work brings together expert knowledge on political science and economics (particularly domain-specific knowledge about foreign policy and monetary policy) with methodological skills and expertise in computational linguistics; it will involve disparate tasks ranging from collecting archival materials through to the development and application of textual annotation schema and the development of computational models of textual entailment.
Last updated:01.07.2024