論文の概要: When Debate Fails: Bias Reinforcement in Large Language Models
- arxiv url: http://arxiv.org/abs/2503.16814v1
- Date: Fri, 21 Mar 2025 02:51:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-24 14:56:05.271168
- Title: When Debate Fails: Bias Reinforcement in Large Language Models
- Title(参考訳): 議論が失敗したとき - 大規模言語モデルにおけるバイアス強化
- Authors: Jihwan Oh, Minchan Jeong, Jongwoo Ko, Se-Young Yun,
- Abstract要約: 大規模言語モデル(LLM)は、プロンプトエンジニアリングやコンテキスト内学習のようなトレーニング不要の手法を使って複雑な問題を解決する。
自己整合性や自己整合性といった自己補正手法は信頼性の向上を目的としている。
バイアス強化と視点の多様性の欠如です。
- 参考スコア(独自算出の注目度): 28.36216398327389
- License:
- Abstract: Large Language Models $($LLMs$)$ solve complex problems using training-free methods like prompt engineering and in-context learning, yet ensuring reasoning correctness remains challenging. While self-correction methods such as self-consistency and self-refinement aim to improve reliability, they often reinforce biases due to the lack of effective feedback mechanisms. Multi-Agent Debate $($MAD$)$ has emerged as an alternative, but we identify two key limitations: bias reinforcement, where debate amplifies model biases instead of correcting them, and lack of perspective diversity, as all agents share the same model and reasoning patterns, limiting true debate effectiveness. To systematically evaluate these issues, we introduce $\textit{MetaNIM Arena}$, a benchmark designed to assess LLMs in adversarial strategic decision-making, where dynamic interactions influence optimal decisions. To overcome MAD's limitations, we propose $\textbf{DReaMAD}$ $($$\textbf{D}$iverse $\textbf{Rea}$soning via $\textbf{M}$ulti-$\textbf{A}$gent $\textbf{D}$ebate with Refined Prompt$)$, a novel framework that $(1)$ refines LLM's strategic prior knowledge to improve reasoning quality and $(2)$ promotes diverse viewpoints within a single model by systematically modifying prompts, reducing bias. Empirical results show that $\textbf{DReaMAD}$ significantly improves decision accuracy, reasoning diversity, and bias mitigation across multiple strategic tasks, establishing it as a more effective approach for LLM-based decision-making.
- Abstract(参考訳): 大言語モデル$($LLMs$)$は、プロンプトエンジニアリングやインコンテキスト学習のようなトレーニング不要のメソッドを使用して複雑な問題を解決するが、推論の正しさは依然として困難である。
自己整合性や自己整合性といった自己補正手法は信頼性の向上を目的としているが、効果的なフィードバック機構が欠如しているため、しばしばバイアスを強化する。
Multi-Agent Debate $($MAD$)$が代替案として登場したが、バイアス強化、議論が修正する代わりにモデルバイアスを増幅する、視点の多様性の欠如、すべてのエージェントが同じモデルと推論パターンを共有し、真の議論の有効性を制限する、という2つの重要な制限が明らかになった。
これらの問題を体系的に評価するために、動的相互作用が最適決定に影響を及ぼす敵の戦略決定におけるLSMを評価するために設計されたベンチマークである$\textit{MetaNIM Arena}$を導入する。
MADの制限を克服するために、$\textbf{DReaMAD}$$($$\textbf{D}$iverse $\textbf{Rea}$soning via $\textbf{M}$ulti-$\textbf{A}$gent $\textbf{D}$ebate with Refined Prompt$)$(1)$$がLLMの戦略的事前知識を洗練し、推論を改善し、(2)$は、プロンプトを体系的に修正しバイアスを減らすことによって、単一モデル内の多様な視点を促進する。
実証的な結果から、$\textbf{DReaMAD}$は、複数の戦略的タスクにおける決定精度、多様性の推論、バイアス緩和を大幅に改善し、LCMに基づく意思決定のより効果的なアプローチとして確立している。
関連論文リスト
- Auto-Search and Refinement: An Automated Framework for Gender Bias Mitigation in Large Language Models [25.291029168327874]
巨大なテキストコーパス上でのLLM(Pre-training large language model)は、自然言語処理能力を向上するが、社会的バイアス、特に性別バイアスを符号化するリスクがある。
我々は、Fairwordsを適応的に生成するためのパラダイムを利用する自動化およびモデルに依存しないフレームワークである$textitFaIRMaker$を提案する。
実験によると、$textitFaIRMaker$はFairwordsを自動的に検索し、動的に洗練し、タスクの整合性を維持しながら、事実上性バイアスを緩和する。
論文 参考訳(メタデータ) (2025-02-17T08:44:04Z) - Autoformulation of Mathematical Optimization Models Using LLMs [50.030647274271516]
商用問題解決者のための自然言語記述から最適化モデルを作成するための自動アプローチを開発する。
本稿では,(1)問題依存仮説空間の定義,(2)不確実性の下でこの空間を効率的に探索すること,(3)定式化の正しさを評価すること,の3つの課題を同定する。
論文 参考訳(メタデータ) (2024-11-03T20:41:38Z) - FLARE: Faithful Logic-Aided Reasoning and Exploration [50.9814063216852]
タスク分解を用いて問題空間をトラバースする新しい手法を提案する。
我々はLarge Language Modelsを使ってソリューションを計画し、クエリを事実に軟式化し、論理プログラミングコードを使って述語する。
提案手法は,生成したコードに対する推論プロセスの忠実度を計算し,外部の解法に頼らずにマルチホップ探索のステップを解析する。
論文 参考訳(メタデータ) (2024-10-14T19:39:11Z) - Unraveling Cross-Modality Knowledge Conflicts in Large Vision-Language Models [33.76903352835436]
LVLM(Large Vision-Language Models)は、マルチモーダル入力をキャプチャし、推論する能力を示す。
これらのモデルは、そのビジョンと言語コンポーネント間の表現された知識の不整合から生じるパラメトリックな知識の衝突を招きやすい。
我々は、それらを検出し、解釈し、緩和するための体系的なアプローチを提案する。
論文 参考訳(メタデータ) (2024-10-04T17:59:28Z) - Metareasoning in uncertain environments: a meta-BAMDP framework [1.0923877073891441]
正しい$P$を見つけることは、推論プロセスの空間上の最適化問題として表すことができる。
本稿では,未知の報酬/遷移分布を持つ環境におけるメタ推論を扱うメタベイズ適応型MDPフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-02T13:15:01Z) - Optimising Calls to Large Language Models with Uncertainty-Based Two-Tier Selection [80.63946798650653]
決定は、より優れた性能を持つ大型LCMを使うか、より少ないコストで使用するかに重点を置いている。
我々は,LLMの世代間不確実性のみを意思決定基準として,より単純な解を提案する。
実験の結果、この単純な解はコストと性能を最適にバランスさせ、27の試験装置中25の既存手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-05-03T14:38:59Z) - Efficient Contextual LLM Cascades through Budget-Constrained Policy Learning [31.972053219549757]
TREACLEは、ユーザの金銭的コストとレイテンシの制約を尊重しながら、モデルとプロンプトスキームを共同で選択する強化学習ポリシーである。
評価の結果,TREACLEはベースラインに比べて最大85%のコスト削減が可能であり,精度は高いことがわかった。
論文 参考訳(メタデータ) (2024-04-17T05:56:49Z) - Encouraging Divergent Thinking in Large Language Models through Multi-Agent Debate [85.3444184685235]
複数のエージェントが"tit for tat"の状態で議論を表現するマルチエージェント議論(MAD)フレームワークを提案し、審査員が議論プロセスを管理して最終解を得る。
我々のフレームワークは、深い熟考を必要とするタスクに役立ちそうなLSMにおける散発的思考を奨励する。
論文 参考訳(メタデータ) (2023-05-30T15:25:45Z) - Delving into Identify-Emphasize Paradigm for Combating Unknown Bias [52.76758938921129]
同定精度を高めるため,有効バイアス強調スコアリング法(ECS)を提案する。
また, マイニングされたバイアスアライメントとバイアスコンプリケート試料のコントリビューションのバランスをとるために, 勾配アライメント(GA)を提案する。
様々な環境で複数のデータセットで実験を行い、提案されたソリューションが未知のバイアスの影響を軽減することを実証した。
論文 参考訳(メタデータ) (2023-02-22T14:50:24Z) - Model-Augmented Q-learning [112.86795579978802]
モデルベースRLの構成要素を付加したMFRLフレームワークを提案する。
具体的には、$Q$-valuesだけでなく、共有ネットワークにおける遷移と報酬の両方を見積もる。
提案手法は,MQL (Model-augmented $Q$-learning) とよばれる提案手法により,真に報いられた学習によって得られる解と同一のポリシ不変解が得られることを示す。
論文 参考訳(メタデータ) (2021-02-07T17:56:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。