論文の概要: XAI in Computational Linguistics: Understanding Political Leanings in
the Slovenian Parliament
- arxiv url: http://arxiv.org/abs/2305.04631v1
- Date: Mon, 8 May 2023 11:19:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-09 14:39:14.542822
- Title: XAI in Computational Linguistics: Understanding Political Leanings in
the Slovenian Parliament
- Title(参考訳): 計算言語学におけるxai--スロベニア議会における政治的傾向の理解
- Authors: Bojan Evkoski and Senja Pollak
- Abstract要約: この研究は、議会の書き起こしを通じて政治的傾きを予測する機械学習モデルの開発と説明可能性について論じている。
我々は、スロベニア議会と欧州移民危機に関する熱い議論に集中しており、2014年から2020年までの書き起こしを行っている。
従来の機械学習モデルとトランスフォーマー言語モデルの両方を開発し、移民の話題に関する発言に基づいて、議会議員の左派または右派を予測した。
- 参考スコア(独自算出の注目度): 4.721944974277117
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The work covers the development and explainability of machine learning models
for predicting political leanings through parliamentary transcriptions. We
concentrate on the Slovenian parliament and the heated debate on the European
migrant crisis, with transcriptions from 2014 to 2020. We develop both
classical machine learning and transformer language models to predict the left-
or right-leaning of parliamentarians based on their given speeches on the topic
of migrants. With both types of models showing great predictive success, we
continue with explaining their decisions. Using explainability techniques, we
identify keywords and phrases that have the strongest influence in predicting
political leanings on the topic, with left-leaning parliamentarians using
concepts such as people and unity and speak about refugees, and right-leaning
parliamentarians using concepts such as nationality and focus more on illegal
migrants. This research is an example that understanding the reasoning behind
predictions can not just be beneficial for AI engineers to improve their
models, but it can also be helpful as a tool in the qualitative analysis steps
in interdisciplinary research.
- Abstract(参考訳): 本研究は、議会の書き起こしを通じて政治的傾きを予測する機械学習モデルの開発と説明可能性について述べる。
我々は、スロベニア議会と、2014年から2020年にかけての欧州移民危機に関する熱烈な議論に集中している。
従来の機械学習モデルとトランスフォーマー言語モデルの両方を開発し、移民の話題に関する発言に基づいて議会議員の左派右派を予測した。
どちらのモデルも大きな予測成功を示しているため、私たちは引き続き彼らの決定を説明します。
説明可能性手法を用いて, 政治的傾向の予測に最も強い影響を及ぼすキーワードやフレーズを抽出し, 左派議員は人や団結といった概念を用いて難民について語り, 右派議員は国籍などの概念を用いて, 不法移民に注目する。
この研究は、予測の背後にある推論を理解することは、aiエンジニアがモデルを改善するのに役立つだけでなく、学際研究における質的分析ステップのツールとしても有用である。
関連論文リスト
- Speaker attribution in German parliamentary debates with QLoRA-adapted
large language models [0.0]
我々は,2017-2021年のドイツ議会討論会において,大型言語モデルLlama 2の話者属性の自動化の可能性について検討した。
本稿の結果は,話者帰属の自動化における大規模言語モデルの能力に光を当て,政治談話の計算分析や意味的役割ラベルシステムの開発に期待できる道のりを明らかにした。
論文 参考訳(メタデータ) (2023-09-18T16:06:16Z) - The ParlaSent multilingual training dataset for sentiment identification
in parliamentary proceedings [4.450536872346658]
本論文は, 感情分類器の訓練に焦点をあてた一連の実験において, 感傷文の新たなデータセットを提案する。
本稿は、政治的科学応用のための最初のドメイン固有 LLM についても紹介し、さらに12億7千億のドメイン固有語を事前訓練した。
我々は,多言語モデルが未確認言語で非常によく機能し,他の言語からの付加データが対象の議会の結果を大幅に改善することを示した。
論文 参考訳(メタデータ) (2023-09-18T14:01:06Z) - A Survey of Large Language Models [81.06947636926638]
言語モデリングは、過去20年間、言語理解と生成のために広く研究されてきた。
近年,大規模コーパス上でのトランスフォーマーモデルの事前学習により,事前学習言語モデル (PLM) が提案されている。
パラメータスケールの違いを識別するために、研究コミュニティは大規模言語モデル (LLM) という用語を提唱した。
論文 参考訳(メタデータ) (2023-03-31T17:28:46Z) - Learning Cross-lingual Visual Speech Representations [108.68531445641769]
言語横断的な自己監督型視覚表現学習は、ここ数年、研究トピックとして成長している。
我々は最近提案したRAVEn(Raw Audio-Visual Speechs)フレームワークを用いて,未ラベルデータを用いた音声-視覚モデルの事前学習を行う。
1)データ量が多いマルチ言語モデルはモノリンガルモデルよりも優れているが、データの量を維持すると、モノリンガルモデルの性能が向上する傾向にある。
論文 参考訳(メタデータ) (2023-03-14T17:05:08Z) - Examining Political Rhetoric with Epistemic Stance Detection [13.829628375546568]
我々は、より複雑な最先端のモデリングよりも優れたマルチソース姿勢予測のためのシンプルなRoBERTaベースのモデルを開発した。
我々は、米国の政治意見書のマスマーケットマニフェストコーパスを大規模に分析することで、その新しい政治科学への応用を実証する。
論文 参考訳(メタデータ) (2022-12-29T23:47:14Z) - M-SpeechCLIP: Leveraging Large-Scale, Pre-Trained Models for
Multilingual Speech to Image Retrieval [56.49878599920353]
本研究は,多言語画像音声検索におけるCLIPとHuBERTの大規模,英語のみの事前学習モデル(CLIPとHuBERT)の利用について検討する。
非英語画像音声検索では、各言語毎に個別のモデルを訓練する場合と、3言語すべてで音声を処理する1つのモデルの両方において、最先端のパフォーマンスを幅広いマージンで上回ります。
論文 参考訳(メタデータ) (2022-11-02T14:54:45Z) - Multi-aspect Multilingual and Cross-lingual Parliamentary Speech
Analysis [1.759288298635146]
我々は,2017年から2020年にかけての6つの国民議会の合同および比較分析に先進的NLP法を適用した。
ParlaMintデータセットコレクションからテキスト中の感情と感情を分析します。
その結果, 分析国間での共通点や, 意外な相違点が認められた。
論文 参考訳(メタデータ) (2022-07-03T14:31:32Z) - Pre-Trained Language Models for Interactive Decision-Making [72.77825666035203]
目的と観測を埋め込みのシーケンスとして表現する模倣学習の枠組みを述べる。
このフレームワークは様々な環境にまたがって効果的な一般化を可能にすることを実証する。
新たなゴールや新しいシーンを含むテストタスクでは、言語モデルによる初期化ポリシーはタスク完了率を43.6%改善する。
論文 参考訳(メタデータ) (2022-02-03T18:55:52Z) - A Latent-Variable Model for Intrinsic Probing [94.61336186402615]
固有プローブ構築のための新しい潜在変数定式化を提案する。
我々は、事前訓練された表現が言語間交互に絡み合ったモルフォシンタクスの概念を発達させる経験的証拠を見出した。
論文 参考訳(メタデータ) (2022-01-20T15:01:12Z) - Filling the Gap of Utterance-aware and Speaker-aware Representation for
Multi-turn Dialogue [76.88174667929665]
マルチターン対話は、2つ以上の異なる話者の役割から複数の発話からなる。
既存の検索に基づくマルチターン対話モデルでは、事前訓練された言語モデル(PrLM)をエンコーダとして、対話を粗く表現する。
本稿では,対話履歴に係わる効果的な発話認識表現と話者認識表現をモデル化することにより,そのようなギャップを埋める新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-09-14T15:07:19Z) - The Unreasonable Effectiveness of Machine Learning in Moldavian versus
Romanian Dialect Identification [24.182791316595576]
モルダヴィア対ルーマニアのクロスディレクト・トピック識別のフォローアップ: VarDial 2019 Evaluation Campaignの共有タスク。
実験により、MLモデルは、文レベルでも、異なる領域にわたっても、方言を正確に識別できることが示されている。
アンサンブル学習を用いた改良型MLモデルを提案する。
論文 参考訳(メタデータ) (2020-07-30T19:25:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。