論文の概要: Distant Reading of the German Coalition Deal: Recognizing Policy
Positions with BERT-based Text Classification
- arxiv url: http://arxiv.org/abs/2212.14648v1
- Date: Fri, 30 Dec 2022 12:20:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 16:21:09.428735
- Title: Distant Reading of the German Coalition Deal: Recognizing Policy
Positions with BERT-based Text Classification
- Title(参考訳): ドイツ連合契約の遠隔読解:BERTに基づくテキスト分類による政策位置の認識
- Authors: Michael Zylla and Thomas Haider
- Abstract要約: 我々は、2021年の連立合意に対する個々の政党の貢献を特定するために、ドイツの党宣言に基づいて訓練されたBERTモデルを使用します。
本研究では、2021年の連立合意に対する各党の貢献を特定するために、ドイツの党宣言に基づいて訓練されたBERTモデルを用いる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automated text analysis has become a widely used tool in political science.
In this research, we use a BERT model trained on German party manifestos to
identify the individual parties' contribution to the coalition agreement of
2021.
- Abstract(参考訳): 自動テキスト分析は政治科学において広く使われているツールとなっている。
本研究では,2021年の連立協定における各政党の貢献を識別するために,ドイツ政党宣言に基づいて訓練されたbertモデルを用いた。
関連論文リスト
- SpeakGer: A meta-data enriched speech corpus of German state and federal parliaments [0.12277343096128711]
SpeakGerデータセットは、1947年から2023年までのドイツ連邦議会とドイツ連邦議会の16州すべてからの議論で構成されている。
このデータセットには、聴衆からのスピーチに対する反応と、講演者のパーティー、年齢、選挙区、政党の政治的アライメントに関する情報という形で、豊富なメタデータが含まれている。
論文 参考訳(メタデータ) (2024-10-23T14:00:48Z) - Spotting AI's Touch: Identifying LLM-Paraphrased Spans in Text [61.22649031769564]
我々は、新しいフレームワーク、パラフレーズテキストスパン検出(PTD)を提案する。
PTDは、テキスト内でパラフレーズ付きテキストを識別することを目的としている。
パラフレーズ付きテキストスパン検出のための専用データセットであるPASTEDを構築した。
論文 参考訳(メタデータ) (2024-05-21T11:22:27Z) - L(u)PIN: LLM-based Political Ideology Nowcasting [1.124958340749622]
LLMの潜在的知識を活用することで,各議員のイデオロギー的立場を分析する手法を提案する。
この方法により、選択の軸として政治家のスタンスを評価することができ、選択の話題・論争に関して政治家のスタンスを柔軟に測定することができる。
論文 参考訳(メタデータ) (2024-05-12T16:14:07Z) - MaiBaam: A Multi-Dialectal Bavarian Universal Dependency Treebank [56.810282574817414]
We present the first multi-dialect Bavarian treebank (MaiBaam) based with part-of-speech and syntactic dependency information in Universal Dependencies (UD)。
我々は、近縁なバイエルン語とドイツ語のモルフォシンタクティックな相違を強調し、話者の正書法の豊富な多様性を示す。
私たちのコーパスには15kのトークンが含まれており、3つの国にまたがるバイエルン語を話すすべての地域の方言をカバーしています。
論文 参考訳(メタデータ) (2024-03-15T13:33:10Z) - Modelling Political Coalition Negotiations Using LLM-based Agents [53.934372246390495]
我々は、新しいNLPタスクとして連立交渉を導入し、それを大規模言語モデルに基づくエージェント間の交渉としてモデル化する。
我々は、欧州政党の宣言とこれらの国における多数の選挙に関する連立協定を含む多言語データセット「POLCA」を導入する。
本稿では、政党間の連立交渉の過程をシミュレートし、その結果を予測するために、階層的なマルコフ決定プロセスを提案する。
論文 参考訳(メタデータ) (2024-02-18T21:28:06Z) - Multilingual estimation of political-party positioning: From label
aggregation to long-input Transformers [3.651047982634467]
我々は、政党マニフェストの自動スケーリング分析に2つのアプローチを実装し、比較する。
このタスクは最先端のモデルによって効率よく解決でき、ラベルアグリゲーションが最良の結果をもたらすことが判明した。
論文 参考訳(メタデータ) (2023-10-19T08:34:48Z) - Speaker attribution in German parliamentary debates with QLoRA-adapted
large language models [0.0]
我々は,2017-2021年のドイツ議会討論会において,大型言語モデルLlama 2の話者属性の自動化の可能性について検討した。
本稿の結果は,話者帰属の自動化における大規模言語モデルの能力に光を当て,政治談話の計算分析や意味的役割ラベルシステムの開発に期待できる道のりを明らかにした。
論文 参考訳(メタデータ) (2023-09-18T16:06:16Z) - Automatic Readability Assessment of German Sentences with Transformer
Ensembles [0.0]
GBERTとGPT-2-Wechselモデルのアンサンブルによるドイツ語文の可読性を確実に予測する能力について検討した。
GBERT と GPT-2-Wechsel の混合アンサンブルは、GBERT と GPT-2-Wechsel のみからなる同じ大きさのアンサンブルよりも優れた性能を示した。
論文 参考訳(メタデータ) (2022-09-09T13:47:55Z) - RuArg-2022: Argument Mining Evaluation [69.87149207721035]
本稿は、ロシア語テキストを扱う議論分析システムの最初のコンペティションの主催者の報告である。
新型コロナウイルスの感染拡大に伴う3つの話題について、9,550文(ソーシャルメディア投稿記事)のコーパスを用意した。
両タスクで第一位を獲得したシステムは、BERTアーキテクチャのNLI(Natural Language Inference)変種を使用した。
論文 参考訳(メタデータ) (2022-06-18T17:13:37Z) - German Parliamentary Corpus (GerParCor) [63.17616047204443]
ドイツ議会法人(GerParCor)について紹介する
ゲルパーコール(GerParCor)は、3世紀から4カ国にかけてのドイツ語の議定書のジャンル別コーパスである。
すべてのプロトコルはspurCy3のNLPパイプラインによって前処理され、セッション日に関するメタデータが自動的にアノテートされる。
論文 参考訳(メタデータ) (2022-04-21T22:06:55Z) - DEBACER: a method for slicing moderated debates [55.705662163385966]
同じ主題を持つブロックに議論を分割することは理解に不可欠である。
議論を適度に分割する新しいアルゴリズムDEBACERを提案する。
論文 参考訳(メタデータ) (2021-12-10T10:39:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。