論文の概要: One More Question is Enough, Expert Question Decomposition (EQD) Model for Domain Quantitative Reasoning
- arxiv url: http://arxiv.org/abs/2510.01526v1
- Date: Wed, 01 Oct 2025 23:45:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:20.905605
- Title: One More Question is Enough, Expert Question Decomposition (EQD) Model for Domain Quantitative Reasoning
- Title(参考訳): もう1つの質問は、ドメイン量的推論のためのエキスパート質問分解(EQD)モデルである
- Authors: Mengyu Wang, Sotirios Sabanis, Miguel de Carvalho, Shay B. Cohen, Tiejun Ma,
- Abstract要約: エキスパート質問分解(Expert Question Decomposition, EQD)は、ドメイン知識の使用と計算効率のバランスをとるように設計されている。
数千のトレーニング例と、微調整のための1つのA100 GPUが必要で、推論時間はゼロショットプロンプトに匹敵する。
専門知識と複雑な量的推論を特徴とする金融分野のEQDを,4つのベンチマークデータセットで評価した。
- 参考スコア(独自算出の注目度): 24.581052880693765
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Domain-specific quantitative reasoning remains a major challenge for large language models (LLMs), especially in fields requiring expert knowledge and complex question answering (QA). In this work, we propose Expert Question Decomposition (EQD), an approach designed to balance the use of domain knowledge with computational efficiency. EQD is built on a two-step fine-tuning framework and guided by a reward function that measures the effectiveness of generated sub-questions in improving QA outcomes. It requires only a few thousand training examples and a single A100 GPU for fine-tuning, with inference time comparable to zero-shot prompting. Beyond its efficiency, EQD outperforms state-of-the-art domain-tuned models and advanced prompting strategies. We evaluate EQD in the financial domain, characterized by specialized knowledge and complex quantitative reasoning, across four benchmark datasets. Our method consistently improves QA performance by 0.6% to 10.5% across different LLMs. Our analysis reveals an important insight: in domain-specific QA, a single supporting question often provides greater benefit than detailed guidance steps.
- Abstract(参考訳): ドメイン固有の量的推論は、特に専門知識と複雑な質問応答(QA)を必要とする分野において、大きな言語モデル(LLM)にとって依然として大きな課題である。
本研究では,ドメイン知識と計算効率のバランスをとるために,エキスパート質問分解(EQD)を提案する。
EQDは2段階の微調整フレームワーク上に構築され、QA結果を改善するために生成されたサブクエストの有効性を測定する報奨関数によって導かれる。
数千のトレーニング例と、微調整のための1つのA100 GPUが必要で、推論時間はゼロショットプロンプトに匹敵する。
効率性以外にも、EQDは最先端のドメインチューニングモデルや高度なプロンプト戦略よりも優れています。
専門知識と複雑な量的推論を特徴とする金融分野のEQDを,4つのベンチマークデータセットで評価した。
提案手法は,異なるLLM間で連続してQA性能を0.6%から10.5%向上させる。
ドメイン固有のQAでは、単一のサポート質問が詳細なガイダンスステップよりも大きなメリットを提供することが多い。
関連論文リスト
- General-Reasoner: Advancing LLM Reasoning Across All Domains [64.70599911897595]
強化学習(RL)は近年,大規模言語モデル(LLM)の推論能力の向上に強い可能性を示している。
本稿では,多分野にわたるLSM推論能力の向上を目的とした,新たなトレーニングパラダイムであるGeneral-Reasonerを提案する。
私たちは一連のモデルをトレーニングし、物理学、化学、金融、電子工学など幅広い分野をカバーする幅広いデータセットでそれらを評価します。
論文 参考訳(メタデータ) (2025-05-20T17:41:33Z) - ExpertGenQA: Open-ended QA generation in Specialized Domains [9.412082058055823]
ExpertGenQAは、いくつかのショット学習と構造化トピックとスタイル分類を組み合わせて、包括的なドメイン固有のQAペアを生成するプロトコルである。
ExpertGenQAは,9,4.4%のトピックカバレッジを維持しつつ,ベースライン数ショットアプローチの効率を2倍に向上することを示す。
論文 参考訳(メタデータ) (2025-03-04T19:09:48Z) - Analyzing the Effectiveness of Quantum Annealing with Meta-Learning [7.251305766151019]
メタラーニングモデルに基づく量子アニーリング(QA)の有効性を検討するための新しい手法を提案する。
10の異なる最適化問題の5万以上のインスタンスからなるデータセットを構築します。
それらの特徴を説明するために100以上の特徴のセットを定義し、QAと3つの古典的解法を用いてそれらを解決する。
論文 参考訳(メタデータ) (2024-08-01T14:03:11Z) - KaPQA: Knowledge-Augmented Product Question-Answering [59.096607961704656]
我々はAdobe AcrobatとPhotoshop製品に焦点を当てた2つのQAデータセットを紹介した。
また、製品QAタスクにおけるモデルの性能を高めるために、新しい知識駆動型RAG-QAフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-22T22:14:56Z) - Performance Prediction for Multi-hop Questions [7.388002745070808]
オープンドメイン型マルチホップ質問の性能を予測するための検索前手法であるmultHPを提案する。
評価の結果,提案モデルが従来のシングルホップQPPモデルよりも優れた性能を示すことが示唆された。
論文 参考訳(メタデータ) (2023-08-12T01:34:41Z) - ProQA: Structural Prompt-based Pre-training for Unified Question
Answering [84.59636806421204]
ProQAは統一されたQAパラダイムであり、単一のモデルによって様々なタスクを解決する。
全てのQAタスクの知識一般化を同時にモデル化し、特定のQAタスクの知識カスタマイズを維持します。
ProQAは、フルデータの微調整、数ショットの学習、ゼロショットテストシナリオの両方のパフォーマンスを一貫して向上させる。
論文 参考訳(メタデータ) (2022-05-09T04:59:26Z) - Synthetic Question Value Estimation for Domain Adaptation of Question
Answering [31.003053719921628]
対象領域のQA性能を改善するために合成質問の有用性を直接推定する質問値推定器(QVE)をトレーニングする新しいアイデアを導入する。
このような質問を使用することで、ターゲットドメイン上のヒューマンアノテーションの約15%しか、完全に教師されたベースラインに匹敵するパフォーマンスを達成できません。
論文 参考訳(メタデータ) (2022-03-16T20:22:31Z) - Tomayto, Tomahto. Beyond Token-level Answer Equivalence for Question
Answering Evaluation [11.733609600774306]
質問応答システムは通常、1つ以上の回答の注釈付き有限集合に対して評価される。
これは、システムの真のパフォーマンスを過小評価する、カバレッジの制限につながる。
本稿では,トークンレベルの等価度尺度の欠点を検討するための,最初の体系的概念的およびデータ駆動分析について述べる。
論文 参考訳(メタデータ) (2022-02-15T18:53:58Z) - Harvesting and Refining Question-Answer Pairs for Unsupervised QA [95.9105154311491]
教師なし質問回答(QA)を改善するための2つのアプローチを提案する。
まず、ウィキペディアから語彙的・構文的に異なる質問を抽出し、質問応答対のコーパスを自動的に構築する(RefQAと名づけられる)。
第2に、より適切な回答を抽出するためにQAモデルを活用し、RefQA上でデータを反復的に洗練する。
論文 参考訳(メタデータ) (2020-05-06T15:56:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。