論文の概要: More Bias, Less Bias: BiasPrompting for Enhanced Multiple-Choice Question Answering
- arxiv url: http://arxiv.org/abs/2511.20086v1
- Date: Tue, 25 Nov 2025 09:01:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.369122
- Title: More Bias, Less Bias: BiasPrompting for Enhanced Multiple-Choice Question Answering
- Title(参考訳): バイアスを減らしてバイアスを減らして、複数の質問に答えるBias Prompting
- Authors: Duc Anh Vu, Thong Nguyen, Cong-Duy Nguyen, Viet Anh Nguyen, Anh Tuan Luu,
- Abstract要約: 大規模言語モデル(LLM)のための新しい推論フレームワークであるBiasPromptingを紹介する。
最終的な予測に到達する前に、LCMにすべての妥当な答えオプションの推論を生成し、批判的に評価するように誘導する。
広く使われている5つの質問応答ベンチマークにおいて、大幅な改善が示されている。
- 参考スコア(独自算出の注目度): 53.09478307383865
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the advancement of large language models (LLMs), their performance on multiple-choice question (MCQ) tasks has improved significantly. However, existing approaches face key limitations: answer choices are typically presented to LLMs without contextual grounding or explanation. This absence of context can lead to incomplete exploration of all possible answers, ultimately degrading the models' reasoning capabilities. To address these challenges, we introduce BiasPrompting, a novel inference framework that guides LLMs to generate and critically evaluate reasoning across all plausible answer options before reaching a final prediction. It consists of two components: first, a reasoning generation stage, where the model is prompted to produce supportive reasonings for each answer option, and then, a reasoning-guided agreement stage, where the generated reasonings are synthesized to select the most plausible answer. Through comprehensive evaluations, BiasPrompting demonstrates significant improvements in five widely used multiple-choice question answering benchmarks. Our experiments showcase that BiasPrompting enhances the reasoning capabilities of LLMs and provides a strong foundation for tackling complex and challenging questions, particularly in settings where existing methods underperform.
- Abstract(参考訳): 大規模言語モデル(LLM)の進歩により,MCQ(Multiple-choice Question)タスクの性能は大幅に向上した。
しかし、既存のアプローチは重要な制限に直面している: 回答の選択は通常、文脈的根拠や説明なしに LLM に提示される。
この文脈の欠如は、すべての可能な答えを不完全に探索し、最終的にはモデルの推論能力を低下させる可能性がある。
これらの課題に対処するために、我々は、最終的な予測に達する前に、全ての妥当な答えオプションの推論を生成し、批判的に評価するLLMをガイドする新しい推論フレームワークであるBiasPromptingを紹介します。
まず、モデルが各回答オプションに対して支持的推論を生成するように促される推論生成段階と、生成した推論を合成して最も妥当な回答を選択する推論誘導合意段階の2つの要素から構成される。
包括的な評価を通じて、BiasPromptingは、広く使用されている5つの複数の質問応答ベンチマークにおいて、大幅な改善を示している。
実験の結果,既存の手法が不十分な環境では,BiasPromptingがLLMの推論能力を高め,複雑で困難な問題に対処するための強力な基盤を提供することがわかった。
関連論文リスト
- Beyond the Last Answer: Your Reasoning Trace Uncovers More than You Think [51.0691253204425]
我々は2つの質問に答えるために中間的推論ステップを解析する: 最終的な答えはモデルの最適結論を確実に表すか?
我々のアプローチは、推論トレースを言語的手がかりに基づくシーケンシャルなサブソートに分割することである。
これらの解答を最も頻繁な解(モード)を選択して集約すると、元の完全トレースから得られる解のみに依存するよりも、はるかに高い精度が得られることが判明した。
論文 参考訳(メタデータ) (2025-04-29T12:39:07Z) - Just Ask One More Time! Self-Agreement Improves Reasoning of Language Models in (Almost) All Scenarios [20.097990701501523]
textbfSelf-Agreementは、ほとんどすべてのシナリオに適用できる一般化可能なアンサンブル最適化手法である。
6つの公開推論ベンチマークと優れた一般化能力で、同時に顕著なパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-11-14T13:30:54Z) - Getting MoRE out of Mixture of Language Model Reasoning Experts [71.61176122960464]
多様な特殊言語モデルを組み込んだMixture-of-Reasoning-Experts (MoRE) フレームワークを提案する。
実例,マルチホップ,数学的,コモンセンス推論など,さまざまな推論カテゴリに最適化されたプロンプトを備えたバックボーン言語モデルを特化する。
人間の研究では、専門家による予測と回答の選択プロセスが、アノテータがシステムの出力を信頼するタイミングをより正確に調整するのに役立ちます。
論文 参考訳(メタデータ) (2023-05-24T02:00:51Z) - Complexity-Based Prompting for Multi-Step Reasoning [72.0057198610614]
大規模言語モデルに対して,多段階推論を行うための課題について検討する。
中心的な疑問は、どの推論例が最も効果的なプロンプトを作るかである。
多段階推論のためのシンプルで効果的な例選択方式である複雑性ベースのプロンプトを提案する。
論文 参考訳(メタデータ) (2022-10-03T05:33:27Z) - Generative Context Pair Selection for Multi-hop Question Answering [60.74354009152721]
マルチホップ質問応答のための生成コンテキスト選択モデルを提案する。
提案した生成経路選択モデルは,対向保留集合上でのより良い性能(ベースラインより4.9%高い)を有する。
論文 参考訳(メタデータ) (2021-04-18T07:00:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。