論文の概要: KOKKAI DOC: An LLM-driven framework for scaling parliamentary representatives
- arxiv url: http://arxiv.org/abs/2505.07118v1
- Date: Sun, 11 May 2025 21:03:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.218827
- Title: KOKKAI DOC: An LLM-driven framework for scaling parliamentary representatives
- Title(参考訳): 国会議事堂:国会議員のスケーリングのためのLLM主導の枠組み
- Authors: Ken Kato, Christopher Cochrane,
- Abstract要約: 本稿では,国会議員の政治問題スタンスを正確にスケールするLLM主導の枠組みを紹介する。
先進的な自然言語処理技術と大規模言語モデルを活用することにより,提案手法は従来のアプローチを洗練・強化する。
この枠組みには,(1)要約による議会演説の消音,よりクリーンで一貫した意見埋め込み,(2)議員の言論要約からの政治的論争の軸の自動抽出,(3)党の立場の経時的変化を追及するダイアクロニック分析,の3つの主要な革新が含まれている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper introduces an LLM-driven framework designed to accurately scale the political issue stances of parliamentary representatives. By leveraging advanced natural language processing techniques and large language models, the proposed methodology refines and enhances previous approaches by addressing key challenges such as noisy speech data, manual bias in selecting political axes, and the lack of dynamic, diachronic analysis. The framework incorporates three major innovations: (1) de-noising parliamentary speeches via summarization to produce cleaner, more consistent opinion embeddings; (2) automatic extraction of axes of political controversy from legislators' speech summaries; and (3) a diachronic analysis that tracks the evolution of party positions over time. We conduct quantitative and qualitative evaluations to verify our methodology. Quantitative evaluations demonstrate high correlation with expert predictions across various political topics, while qualitative analyses reveal meaningful associations between language patterns and political ideologies. This research aims to have an impact beyond the field of academia by making the results accessible by the public on teh web application: kokkaidoc.com. We are hoping that through our application, Japanese voters can gain a data-driven insight into the political landscape which aids them to make more nuanced voting decisions. Overall, this work contributes to the growing body of research that applies LLMs in political science, offering a flexible and reliable framework for scaling political positions from parliamentary speeches. But also explores the practical applications of the research in the real world to have real world impact.
- Abstract(参考訳): 本稿では,国会議員の政治問題スタンスを正確にスケールするLLM主導の枠組みを紹介する。
提案手法は,高度な自然言語処理技術と大規模言語モデルを活用することで,ノイズの多い音声データ,政治的軸の選択における手動バイアス,動的・ダイアクロニック解析の欠如といった重要な課題に対処し,従来のアプローチを洗練・強化する。
この枠組みには,(1)要約による議会演説の消音,よりクリーンで一貫した意見埋め込み,(2)議員の言論要約からの政治的論争の軸の自動抽出,(3)党の立場の経時的変化を追及するダイアクロニック分析,の3つの主要な革新が含まれている。
我々は方法論を検証するために定量的かつ質的な評価を行う。
定量的評価は、様々な政治的トピックにわたる専門家の予測と高い相関を示す一方、質的な分析は言語パターンと政治的イデオロギーの間に有意義な関連を示す。
本研究は,Webアプリケーション「kokkaidoc.com」上で,一般市民が利用できるようにすることによって,アカデミックの分野を超えて大きな影響を与えることを目的としている。
我が国の有権者は、当社の申請を通じて、より曖昧な投票決定を下すための政治状況に関するデータ主導的な洞察を得られることを願っている。
全体として、この研究はLLMを政治科学に適用し、議会演説から政治的地位を拡大するための柔軟で信頼性の高い枠組みを提供する、成長する研究に寄与する。
しかし、現実世界における研究の実践的応用を探求し、現実世界に影響を与えている。
関連論文リスト
- Political-LLM: Large Language Models in Political Science [159.95299889946637]
大規模言語モデル(LLM)は、政治科学のタスクで広く採用されている。
政治LLMは、LLMを計算政治科学に統合する包括的な理解を促進することを目的としている。
論文 参考訳(メタデータ) (2024-12-09T08:47:50Z) - LLM-POTUS Score: A Framework of Analyzing Presidential Debates with Large Language Models [33.251235538905895]
本稿では,大規模言語モデルを用いた大統領討論のパフォーマンス評価手法を提案する。
本研究では, 候補者の「政策, ペルソナ, パーソナ, パースペクティブ」(3P)と, 4つの主要オーディエンスグループの「関心, イデオロギー, アイデンティティ」とどのように共鳴するかを分析する枠組みを提案する。
提案手法では,LLM-POTUSスコアを生成するために,大規模な言語モデルを用いる。
論文 参考訳(メタデータ) (2024-09-12T15:40:45Z) - Representation Bias in Political Sample Simulations with Large Language Models [54.48283690603358]
本研究は,大規模言語モデルを用いた政治サンプルのシミュレーションにおけるバイアスの同定と定量化を目的とする。
GPT-3.5-Turboモデルを用いて、米国選挙研究、ドイツ縦割り選挙研究、ズオビアオデータセット、中国家族パネル研究のデータを活用する。
論文 参考訳(メタデータ) (2024-07-16T05:52:26Z) - Whose Side Are You On? Investigating the Political Stance of Large Language Models [56.883423489203786]
大規模言語モデル(LLM)の政治的指向性について,8つのトピックのスペクトルにわたって検討する。
我々の調査は、中絶からLGBTQ問題まで8つのトピックにまたがるLLMの政治的整合性について考察している。
この結果から,ユーザはクエリ作成時に留意すべきであり,中立的なプロンプト言語を選択する際には注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-15T04:02:24Z) - P^3SUM: Preserving Author's Perspective in News Summarization with Diffusion Language Models [57.571395694391654]
既存のアプローチは、要約の50%以上で、ニュース記事の政治的意見やスタンスを変えている。
政治的視点分類器によって制御される拡散モデルに基づく要約手法であるP3SUMを提案する。
3つのニュース要約データセットの実験により、P3SUMは最先端の要約システムより優れていることが示された。
論文 参考訳(メタデータ) (2023-11-16T10:14:28Z) - Inducing Political Bias Allows Language Models Anticipate Partisan
Reactions to Controversies [5.958974943807783]
本研究では,Large Language Models (LLMs) を用いたデジタル談話における政治的偏見の理解の課題に対処する。
本稿では,Partisan Bias Divergence AssessmentとPartisan Class Tendency Predictionからなる包括的分析フレームワークを提案する。
以上の結果から,感情的・道徳的ニュアンスを捉えたモデルの有効性が明らかとなった。
論文 参考訳(メタデータ) (2023-11-16T08:57:53Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - The ParlaSent Multilingual Training Dataset for Sentiment Identification in Parliamentary Proceedings [0.0]
そこで本論文では,感傷的に手動で注釈付けした7言語による文のトレーニングデータセットを提案する。
さらに、政治科学応用のためのドメイン固有多言語トランスフォーマー言語モデルについても紹介する。
論文 参考訳(メタデータ) (2023-09-18T14:01:06Z) - Examining Political Rhetoric with Epistemic Stance Detection [13.829628375546568]
我々は、より複雑な最先端のモデリングよりも優れたマルチソース姿勢予測のためのシンプルなRoBERTaベースのモデルを開発した。
我々は、米国の政治意見書のマスマーケットマニフェストコーパスを大規模に分析することで、その新しい政治科学への応用を実証する。
論文 参考訳(メタデータ) (2022-12-29T23:47:14Z) - PAR: Political Actor Representation Learning with Social Context and
Expert Knowledge [45.215862050840116]
我々は,textbfPolitical textbfActor textbfRepresentation学習フレームワークであるtextbfPARを提案する。
我々は,社会的文脈情報を活用するために,議員に関する事実文を検索し,抽出する。
次に、社会的文脈を取り入れた異種情報ネットワークを構築し、リレーショナルグラフニューラルネットワークを用いて立法者表現を学習する。
論文 参考訳(メタデータ) (2022-10-15T19:28:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。