論文の概要: Mitigating Judgment Preference Bias in Large Language Models through Group-Based Polling
- arxiv url: http://arxiv.org/abs/2510.08145v1
- Date: Thu, 09 Oct 2025 12:32:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:15.065524
- Title: Mitigating Judgment Preference Bias in Large Language Models through Group-Based Polling
- Title(参考訳): グループ型ポーリングによる大規模言語モデルにおける判断優先バイアスの緩和
- Authors: Shuliang Liu, Zhipeng Xu, Zhenghao Liu, Yukun Yan, Minghe Yu, Yu Gu, Chong Chen, Huiyuan Xie, Ge Yu,
- Abstract要約: 自動評価器としての大規模言語モデル(LLM)が注目されている。
LLMは自分自身が生み出す反応を好む傾向があり、判断の信頼性を損なう。
本稿では,教師なしマルチエージェント協調最適化フレームワークであるグループベースポーリング最適化(Genii)を紹介する。
- 参考スコア(独自算出の注目度): 26.377421806098187
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) as automatic evaluators, commonly referred to as LLM-as-a-Judge, have also attracted growing attention. This approach plays a vital role in aligning LLMs with human judgments, providing accurate and reliable assessments. However, LLM-based judgment models often exhibit judgment preference bias during the evaluation phase, tending to favor responses generated by themselves, undermining the reliability of their judgments. This paper introduces the Group-Based Polling Optimization (Genii), an unsupervised multi-agent collaborative optimization framework that mitigates the inherent judgment preference bias of judgment models. Specifically, Genii integrates various LLM-based judgment models into a multi-agent system and simulates the interactive client-server polling mechanism to optimize each client agent unsupervisedly. Our experiments demonstrate that Genii outperforms supervised models trained on annotated judgment data, while requiring no human-labeled annotations. Genii consistently improves performance across different client agents during the polling, even when weaker models act as server agents. Further analysis reveals that Genii effectively mitigates judgment preference bias of LLM-based judgment models, demonstrating its effectiveness. All codes are available at https://github.com/NEUIR/Genii.
- Abstract(参考訳): LLM-as-a-Judgeと呼ばれる自動評価器としての大規模言語モデル(LLM)も注目されている。
このアプローチは、LLMを人間の判断に合わせる上で重要な役割を担い、正確で信頼性の高い評価を提供する。
しかし, LLMに基づく判断モデルでは, 評価期間中に判断優先バイアスが生じることが多く, 判断の信頼性を損なう傾向にある。
本稿では,教師なしマルチエージェント協調最適化フレームワークであるグループベースポーリング最適化(Genii)を紹介する。
具体的には、さまざまなLCMに基づく判断モデルをマルチエージェントシステムに統合し、対話型クライアントサーバポーリング機構をシミュレートして、各クライアントエージェントを教師なしで最適化する。
評価実験の結果,Geniiは注釈付き判定データで訓練された教師付きモデルよりも優れており,人間ラベル付きアノテーションは不要であることがわかった。
Geniiは、より弱いモデルがサーバエージェントとして振る舞う場合でも、ポーリング中に異なるクライアントエージェント間のパフォーマンスを一貫して改善する。
さらに解析した結果,ジェニイはLLMに基づく判断モデルの判断優先バイアスを効果的に軽減し,その有効性を示した。
すべてのコードはhttps://github.com/NEUIR/Genii.comで入手できる。
関連論文リスト
- Pairwise or Pointwise? Evaluating Feedback Protocols for Bias in LLM-Based Evaluation [57.380464382910375]
評価のためのフィードバックプロトコルの選択は,評価信頼性に大きく影響し,系統的なバイアスを生じさせることを示す。
ジェネレータモデルは、気を散らす機能を埋め込むことで好みをひっくり返すことができる。
我々は,データセットの特徴と評価目標に基づくフィードバックプロトコルの選択を推奨する。
論文 参考訳(メタデータ) (2025-04-20T19:05:59Z) - Judge as A Judge: Improving the Evaluation of Retrieval-Augmented Generation through the Judge-Consistency of Large Language Models [68.92020689188887]
Retrieval-Augmented Generation (RAG) は、Large Language Models (LLM) に対する幻覚を緩和する効果を証明している。
既存の自動評価メトリクスは、トレーニングと評価の間にRAGモデルによって生成されたアウトプットを正確に評価することはできない。
本稿では,RAGモデルのより正確な評価を実現するため,LCMの強化を目的とした判断一貫性(ConsJudge)手法を提案する。
論文 参考訳(メタデータ) (2025-02-26T04:50:43Z) - Decompose and Leverage Preferences from Expert Models for Improving Trustworthiness of MLLMs [21.02718263476369]
MLLM(Multimodal Large Language Models)は、人間の好みに合わせて信頼性を高める。
近年の研究では、MLLMの応答を評価するための評価モデルが採用されている。
DecompGenは、オープンソースのエキスパートモデルのアンサンブルを使用する、分解可能なフレームワークである。
論文 参考訳(メタデータ) (2024-11-20T20:28:04Z) - Direct Judgement Preference Optimization [79.54459973726405]
我々は、他のモデルのアウトプットを評価し、批判するために、生成的判断として大きな言語モデル(LLM)を訓練する。
我々は,異なるユースケースに対する選好ペアの収集に3つのアプローチを採用し,それぞれが異なる視点から生成判断を改善することを目的としている。
提案モデルは,位置や長さの偏りなどの固有バイアスに強く対応し,実践者が指定した評価プロトコルに柔軟に適用し,下流ジェネレータモデルを改善する上で有用な言語フィードバックを提供する。
論文 参考訳(メタデータ) (2024-09-23T02:08:20Z) - Fairer Preferences Elicit Improved Human-Aligned Large Language Model Judgments [41.25558612970942]
大規模言語モデル (LLMs) が優先バイアスを示し, 設計に敏感であることを示す。
この現象に触発された自動ゼロショット評価指向のプロンプト最適化フレームワークZEPOを提案する。
論文 参考訳(メタデータ) (2024-06-17T09:48:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。