論文の概要: Identifying Algorithmic and Domain-Specific Bias in Parliamentary Debate Summarisation
- arxiv url: http://arxiv.org/abs/2507.14221v1
- Date: Wed, 16 Jul 2025 11:49:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-22 20:51:31.778496
- Title: Identifying Algorithmic and Domain-Specific Bias in Parliamentary Debate Summarisation
- Title(参考訳): 議会討論要約におけるアルゴリズムとドメイン特化バイアスの同定
- Authors: Eoghan Cunningham, James Cross, Derek Greene,
- Abstract要約: 本稿では,欧州議会の議論を要約するために,大規模言語モデル(LLM)の利用について検討する。
本稿では,テキストのコヒーレンスと内容の忠実度を向上する構造化多段階要約フレームワークを提案する。
定位バイアスと党派バイアスが一貫した証拠が見つかり、一部の話者は体系的にあまり表現されていないか、あるいは誤分布している。
- 参考スコア(独自算出の注目度): 13.982513887272683
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The automated summarisation of parliamentary debates using large language models (LLMs) offers a promising way to make complex legislative discourse more accessible to the public. However, such summaries must not only be accurate and concise but also equitably represent the views and contributions of all speakers. This paper explores the use of LLMs to summarise plenary debates from the European Parliament and investigates the algorithmic and representational biases that emerge in this context. We propose a structured, multi-stage summarisation framework that improves textual coherence and content fidelity, while enabling the systematic analysis of how speaker attributes -- such as speaking order or political affiliation -- influence the visibility and accuracy of their contributions in the final summaries. Through our experiments using both proprietary and open-weight LLMs, we find evidence of consistent positional and partisan biases, with certain speakers systematically under-represented or misattributed. Our analysis shows that these biases vary by model and summarisation strategy, with hierarchical approaches offering the greatest potential to reduce disparity. These findings underscore the need for domain-sensitive evaluation metrics and ethical oversight in the deployment of LLMs for democratic applications.
- Abstract(参考訳): 大型言語モデル(LLM)を用いた議会討論の自動要約は、複雑な立法の議論をより一般大衆に受けやすいものにするための有望な方法である。
しかし、そのような要約は正確かつ簡潔であるだけでなく、すべての話者の見解や貢献を公平に表現しなければならない。
本稿では,欧州議会の議論を要約するためにLLMを用いており,この文脈で現れるアルゴリズム的および表現的バイアスについて検討する。
本稿では,文章のコヒーレンスや内容の忠実度を向上させるとともに,話し手や政治的親和性などの話者属性が,最終要約における貢献の可視性と正確性にどのように影響するかを体系的に分析する,構造化された多段階要約フレームワークを提案する。
プロプライエタリなLLMとオープンウェイトなLLMの両方を用いた実験を通して、特定の話者が体系的にあまり表現されていない、あるいは誤分布しているという、一貫した位置バイアスとパルチザンバイアスの証拠を見出した。
我々の分析では、これらのバイアスはモデルと要約戦略によって異なり、階層的アプローチは格差を減らす最大の可能性を提供する。
これらの知見は、民主的アプリケーションのためのLLMの展開において、ドメイン依存評価指標と倫理的監督の必要性を浮き彫りにした。
関連論文リスト
- Implicit Counterfactual Learning for Audio-Visual Segmentation [50.69377287012591]
我々は,非バイアスの相互理解を実現するために,暗黙の対実的枠組み(ICF)を提案する。
意味論の欠如により、異種表現は誤った一致につながる可能性がある。
モダリティ共有空間を確立するために,ビデオ,セグメント,フレームレベルを含む多粒性暗黙テキスト(MIT)をブリッジとして導入する。
論文 参考訳(メタデータ) (2025-07-28T11:46:35Z) - Reasoning or Not? A Comprehensive Evaluation of Reasoning LLMs for Dialogue Summarization [9.994839971567542]
本報告では, 最先端の推論LDMと非推論LDMの総合的, 体系的評価について述べる。
他の推論集約的なタスクの傾向とは対照的に、明示的な段階的推論は対話の要約品質を常に改善しない。
論文 参考訳(メタデータ) (2025-07-02T21:02:41Z) - CLATTER: Comprehensive Entailment Reasoning for Hallucination Detection [60.98964268961243]
我々は,系統的かつ包括的な推論プロセスを実行するためのモデルを導くことで,モデルがよりきめ細やかで正確な絞り込み決定を実行できることを提案する。
我々は,(i)クレームの分解,(ii)サブクレームの属性と包含分類,および(iii)集約分類から成る3段階の推論プロセスを定義し,そのような導出推論が実際に幻覚検出の改善をもたらすことを示す。
論文 参考訳(メタデータ) (2025-06-05T17:02:52Z) - What are they talking about? Benchmarking Large Language Models for Knowledge-Grounded Discussion Summarization [19.616500850017363]
本研究の目的は,既存の対話要約システムにおける外部オブザーバの混乱の限界に対処することである。
タスク出力を背景と意見の要約としてモデル化し、2つの標準化された要約パターンを定義する。
我々は,構造化プロンプトおよび自己回帰パラダイムの下で12個のLDMを評価した。
論文 参考訳(メタデータ) (2025-05-18T15:52:24Z) - KOKKAI DOC: An LLM-driven framework for scaling parliamentary representatives [0.0]
本稿では,国会議員の政治問題スタンスを正確にスケールするLLM主導の枠組みを紹介する。
先進的な自然言語処理技術と大規模言語モデルを活用することにより,提案手法は従来のアプローチを洗練・強化する。
この枠組みには,(1)要約による議会演説の消音,よりクリーンで一貫した意見埋め込み,(2)議員の言論要約からの政治的論争の軸の自動抽出,(3)党の立場の経時的変化を追及するダイアクロニック分析,の3つの主要な革新が含まれている。
論文 参考訳(メタデータ) (2025-05-11T21:03:53Z) - Evaluating book summaries from internal knowledge in Large Language Models: a cross-model and semantic consistency approach [0.0]
本研究では,大規模言語モデル(LLM)を用いて,包括的かつ正確な書籍要約を生成する能力について検討する。
これらのモデルが、確立された人間の解釈と一致した有意義な物語を合成できるかどうかを検討する。
論文 参考訳(メタデータ) (2025-03-27T15:36:24Z) - SySLLM: Generating Synthesized Policy Summaries for Reinforcement Learning Agents Using Large Language Models [10.848775419008442]
本稿では,大言語モデル(LLM)の広範な世界知識とパターンをキャプチャする能力を活用し,合成要約を利用する新しい手法であるSySLLMを提案する。
SySLLMサマリーは、デモベースのポリシーサマリーよりも好まれており、客観的エージェント識別タスクにおいて、それらのパフォーマンスにマッチするか、上回っている。
論文 参考訳(メタデータ) (2025-03-13T16:10:14Z) - Adversarial Multi-Agent Evaluation of Large Language Models through Iterative Debates [0.0]
本稿では,対話エージェントのアンサンブル内で,大規模言語モデル(LLM)を提唱者として解釈するフレームワークを提案する。
このアプローチは、従来の人間ベースの評価や自動メトリクスと比較して、よりダイナミックで包括的な評価プロセスを提供します。
論文 参考訳(メタデータ) (2024-10-07T00:22:07Z) - Hierarchical Indexing for Retrieval-Augmented Opinion Summarization [60.5923941324953]
本稿では,抽出アプローチの帰属性と拡張性と,大規模言語モデル(LLM)の一貫性と拡散性を組み合わせた,教師なし抽象的意見要約手法を提案する。
我々の方法であるHIROは、意味的に整理された離散的な階層を通して文を経路にマッピングするインデックス構造を学習する。
推測時にインデックスを投入し、入力レビューから人気意見を含む文群を識別し、検索する。
論文 参考訳(メタデータ) (2024-03-01T10:38:07Z) - Sparsity-Guided Holistic Explanation for LLMs with Interpretable
Inference-Time Intervention [53.896974148579346]
大規模言語モデル(LLM)は、様々な自然言語処理領域において前例のないブレークスルーを達成した。
LLMの謎的なブラックボックスの性質は、透過的で説明可能なアプリケーションを妨げる、解釈可能性にとって重要な課題である。
本稿では,LLMの全体的解釈を提供することを目的として,スポーシティ誘導技術に係わる新しい方法論を提案する。
論文 参考訳(メタデータ) (2023-12-22T19:55:58Z) - Exploring the Jungle of Bias: Political Bias Attribution in Language Models via Dependency Analysis [86.49858739347412]
大規模言語モデル(LLM)は、これらのモデルにおけるバイアスの頻度とその緩和に関する激しい議論を引き起こしている。
本稿では,意思決定プロセスに寄与する属性の抽出と仲介を行うためのプロンプトベースの手法を提案する。
観察された異なる治療は、少なくとも部分的には、属性の相違とモデルの相違によるものであることが判明した。
論文 参考訳(メタデータ) (2023-11-15T00:02:25Z) - Large Language Models can Contrastively Refine their Generation for Better Sentence Representation Learning [57.74233319453229]
大規模言語モデル(LLM)は画期的な技術として登場し、それらの非並列テキスト生成能力は、基本的な文表現学習タスクへの関心を喚起している。
コーパスを生成するためにLLMの処理を分解するマルチレベルコントラスト文表現学習フレームワークであるMultiCSRを提案する。
実験の結果,MultiCSRはより高度なLCMをChatGPTの性能を超えつつ,ChatGPTに適用することで最先端の成果を得られることがわかった。
論文 参考訳(メタデータ) (2023-10-17T03:21:43Z) - Self-supervised Text-independent Speaker Verification using Prototypical
Momentum Contrastive Learning [58.14807331265752]
モーメントの対比学習によって話者埋め込みがより良く学習できることを示す。
自己監視フレームワークを、データのごく一部しかラベル付けされない半監視シナリオに一般化します。
論文 参考訳(メタデータ) (2020-12-13T23:23:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。