論文の概要: REFER: Mitigating Bias in Opinion Summarisation via Frequency Framed Prompting
- arxiv url: http://arxiv.org/abs/2509.15723v1
- Date: Fri, 19 Sep 2025 07:53:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-22 18:18:11.060659
- Title: REFER: Mitigating Bias in Opinion Summarisation via Frequency Framed Prompting
- Title(参考訳): レファレンス:周波数分割プロンプティングによるオピニオン要約におけるバイアスの緩和
- Authors: Nannan Huang, Haytham M. Fayek, Xiuzhen Zhang,
- Abstract要約: 本研究では、周波数フレーム化プロンプト(REFER)が、意見要約の公平性を高めることができるかどうかを考察する。
我々は、言語モデルにおいてより効果的な情報処理を実現するために、人間の推論を改善するために知られている手法を適用した。
以上の結果から,REFERは意見の要約における言語モデルの公平性を高めることが示唆された。
- 参考スコア(独自算出の注目度): 4.829365136759453
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Individuals express diverse opinions, a fair summary should represent these viewpoints comprehensively. Previous research on fairness in opinion summarisation using large language models (LLMs) relied on hyperparameter tuning or providing ground truth distributional information in prompts. However, these methods face practical limitations: end-users rarely modify default model parameters, and accurate distributional information is often unavailable. Building upon cognitive science research demonstrating that frequency-based representations reduce systematic biases in human statistical reasoning by making reference classes explicit and reducing cognitive load, this study investigates whether frequency framed prompting (REFER) can similarly enhance fairness in LLM opinion summarisation. Through systematic experimentation with different prompting frameworks, we adapted techniques known to improve human reasoning to elicit more effective information processing in language models compared to abstract probabilistic representations.Our results demonstrate that REFER enhances fairness in language models when summarising opinions. This effect is particularly pronounced in larger language models and using stronger reasoning instructions.
- Abstract(参考訳): 個人は様々な意見を表明し、公平な要約はこれらの見解を包括的に表現すべきである。
大規模言語モデル(LLM)を用いた意見要約における公平性に関する従来の研究は,高パラメータチューニングや,プロンプトにおける真理分布情報の提供に依存していた。
エンドユーザがデフォルトのモデルパラメータを変更することはめったになく、正確な分布情報は利用できないことが多い。
本研究は,人間の統計的推論における周波数に基づく表現が,基準クラスを明確にし,認知負荷を低減させることによって体系的バイアスを減少させることを実証する認知科学研究に基づいて,LLM意見要約における周波数フレームプロンプト(REFER)も同様に公平性を高めることができるかどうかを考察する。
本研究では, 言語モデルにおいて, 抽象確率的表現よりも効果的な情報処理を実現するために, 人間の推論を改善する手法を応用し, 意見の要約において, 言語モデルの公平性を向上することを示す。
この効果は特に大きな言語モデルで顕著であり、より強い推論命令を用いている。
関連論文リスト
- A Closer Look at Bias and Chain-of-Thought Faithfulness of Large (Vision) Language Models [53.18562650350898]
思考の連鎖(CoT)推論は、大きな言語モデルの性能を高める。
大規模視覚言語モデルにおけるCoT忠実度に関する最初の総合的研究について述べる。
論文 参考訳(メタデータ) (2025-05-29T18:55:05Z) - Actions Speak Louder than Words: Agent Decisions Reveal Implicit Biases in Language Models [10.565316815513235]
大規模言語モデル(LLM)は、人間の振る舞いをシミュレートする際にも暗黙の偏見を示すことがある。
ほぼすべてのシミュレーションにおいて,最先端のLDMは社会デマトグラフィーの相違が顕著であることを示す。
実験結果と実世界の格差を比較すると、我々が発見したバイアスは方向整列されているが、顕著に増幅されていることがわかった。
論文 参考訳(メタデータ) (2025-01-29T05:21:31Z) - Covert Bias: The Severity of Social Views' Unalignment in Language Models Towards Implicit and Explicit Opinion [0.40964539027092917]
過度なバイアスシナリオのエッジケースにおけるバイアスモデルを用いて、ビューに対するバイアスの重症度を評価する。
以上の結果から,暗黙的・明示的な意見の識別において,LLM 性能の相違が明らかとなり,反対意見の明示的な意見に対する偏見の傾向が一般的であった。
非整合モデルの直接的な不注意な反応は、決定性のさらなる洗練の必要性を示唆している。
論文 参考訳(メタデータ) (2024-08-15T15:23:00Z) - Identifying and Mitigating Social Bias Knowledge in Language Models [52.52955281662332]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Take Care of Your Prompt Bias! Investigating and Mitigating Prompt Bias in Factual Knowledge Extraction [56.17020601803071]
近年の研究では、事前学習言語モデル(PLM)が、事実知識抽出において「急激なバイアス」に悩まされていることが示されている。
本稿では,突発バイアスを徹底的に調査し緩和することにより,既存のベンチマークの信頼性を向上させることを目的とする。
論文 参考訳(メタデータ) (2024-03-15T02:04:35Z) - Decoding News Narratives: A Critical Analysis of Large Language Models in Framing Detection [10.301985230669684]
本稿では,ニュース見出しにおけるフレーミングの検出において,GPT-4,GPT-3.5 Turbo,FLAN-T5モデルを包括的に分析する。
我々はこれらのモデルを,ゼロショット,ドメイン内例による少数ショット,クロスドメイン例,モデルが予測を説明する設定など,さまざまなシナリオで評価した。
論文 参考訳(メタデータ) (2024-02-18T15:27:48Z) - Fairness-guided Few-shot Prompting for Large Language Models [93.05624064699965]
インコンテキスト学習は、トレーニング例、例えば順、プロンプトフォーマットのバリエーションによって、高い不安定性に悩まされる可能性がある。
ラベルや属性に対する固定的なプロンプトの予測バイアスを評価するための指標を導入する。
そこで本研究では,テキスト内学習の性能向上のための最寄りのプロンプトを特定するための,欲求探索に基づく新しい探索手法を提案する。
論文 参考訳(メタデータ) (2023-03-23T12:28:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。