論文の概要: BOOST: Bootstrapping Strategy-Driven Reasoning Programs for Program-Guided Fact-Checking
- arxiv url: http://arxiv.org/abs/2504.02467v1
- Date: Thu, 03 Apr 2025 10:38:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-04 12:56:50.684637
- Title: BOOST: Bootstrapping Strategy-Driven Reasoning Programs for Program-Guided Fact-Checking
- Title(参考訳): BOOST: プログラム駆動Fact-Checkingのためのブートストラップ戦略駆動型推論プログラム
- Authors: Qisheng Hu, Quanyu Long, Wenya Wang,
- Abstract要約: プログラム誘導推論は、複雑なクレームの事実チェックにおいて有望であることを示している。
それまでの作業は、アドホックなデモを伴う、数発のコンテキスト内学習に依存していた。
本稿では,数ショット推論プログラム生成のためのブートストラップベースのフレームワークであるBOOSTを提案する。
- 参考スコア(独自算出の注目度): 16.655011153015202
- License:
- Abstract: Program-guided reasoning has shown promise in complex claim fact-checking by decomposing claims into function calls and executing reasoning programs. However, prior work primarily relies on few-shot in-context learning (ICL) with ad-hoc demonstrations, which limit program diversity and require manual design with substantial domain knowledge. Fundamentally, the underlying principles of effective reasoning program generation still remain underexplored, making it challenging to construct effective demonstrations. To address this, we propose BOOST, a bootstrapping-based framework for few-shot reasoning program generation. BOOST explicitly integrates claim decomposition and information-gathering strategies as structural guidance for program generation, iteratively refining bootstrapped demonstrations in a strategy-driven and data-centric manner without human intervention. This enables a seamless transition from zero-shot to few-shot strategic program-guided learning, enhancing interpretability and effectiveness. Experimental results show that BOOST outperforms prior few-shot baselines in both zero-shot and few-shot settings for complex claim verification.
- Abstract(参考訳): プログラム誘導推論は、複雑なクレームの事実チェックにおいて、クレームを関数呼び出しに分解し、推論プログラムを実行することで約束されている。
しかし、事前の作業は主に、アドホックなデモンストレーションを施した少数ショットのインコンテキスト学習(ICL)に依存しており、プログラムの多様性を制限し、ドメイン知識がかなりある手動設計を必要とする。
基本的に、効果的な推論プログラム生成の根底にある原理は未解明のままであり、効果的な実演を構築することは困難である。
そこで本研究では,数発の推論プログラム生成のためのブートストラップベースのフレームワークであるBOOSTを提案する。
BOOSTは、クレームの分解と情報収集戦略を、プログラム生成のための構造的ガイダンスとして明示的に統合し、人間の介入なしに、戦略駆動型でデータ中心の方法で、ブートストラップされたデモを反復的に精錬する。
これにより、ゼロショットから少数ショットの戦略的プログラム誘導学習へのシームレスな移行が可能になり、解釈可能性と効果が向上する。
実験の結果、BOOSTは、複雑なクレーム検証のためのゼロショットおよび少数ショット設定の両方において、以前の数ショットベースラインよりも優れていた。
関連論文リスト
- Inference-Time Computations for LLM Reasoning and Planning: A Benchmark and Insights [49.42133807824413]
本稿では,大規模言語モデル(LLM)の複雑な課題解決における推論と計画能力について検討する。
近年の推論時間技術の発展は,LLM推論を追加訓練なしで向上させる可能性を示している。
OpenAIのo1モデルは、マルチステップ推論と検証の新たな使用を通じて、有望なパフォーマンスを示している。
論文 参考訳(メタデータ) (2025-02-18T04:11:29Z) - BRiTE: Bootstrapping Reinforced Thinking Process to Enhance Language Model Reasoning [78.63421517563056]
大規模言語モデル(LLM)は複雑な推論タスクにおいて顕著な機能を示した。
本稿では,新しいグラフィカルモデルを用いてLLM推論を定式化する統一確率的フレームワークを提案する。
本稿では,Bootstrapping Reinforced Thinking Process (BRiTE)アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2025-01-31T02:39:07Z) - Reasoning-Oriented and Analogy-Based Methods for Locating and Editing in Zero-Shot Event-Relational Reasoning [1.0373115083302502]
推論指向のロケート・編集(ROLE)とアナロジーに基づくロケート・編集(ABLE)を提案する。
ROLEは、イベント関係の推論、解釈可能性の向上、推論能力のリソース効率の最適化のために、言語モデルの重要モジュールを特定し、編集する。
ABLEはゼロショット推論能力を最適化するためにタスク間の類似点と相違点を利用する。
論文 参考訳(メタデータ) (2025-01-01T11:02:08Z) - Can We Further Elicit Reasoning in LLMs? Critic-Guided Planning with Retrieval-Augmentation for Solving Challenging Tasks [68.49251303172674]
最先端の大規模言語モデル(LLM)は、目覚ましい問題解決能力を示すが、複雑な推論と事実の正しさに苦慮する可能性がある。
既存の手法では、チェーン・オブ・ソートと検索強化生成(RAG)の強みを利用して、複雑な問題をより単純なステップに分解し、検索を適用して事実の正しさを向上させる。
CR-Planner(CR-Planner, CR-Planner, CR-Planner)は, 微調整された批判モデルを利用して, 推論と検索の両方のプロセスを計画を通してガイドする新しいフレームワークである。
論文 参考訳(メタデータ) (2024-10-02T11:26:02Z) - Learning Planning-based Reasoning by Trajectories Collection and Process Reward Synthesizing [61.98556945939045]
収集された軌道上でのDPO(Direct Preference Optimization)を通して計画に基づく推論を学習するフレームワークを提案する。
論理的推論ベンチマークの挑戦的な結果から,学習フレームワークの有効性が示された。
論文 参考訳(メタデータ) (2024-02-01T15:18:33Z) - Hierarchical Programmatic Reinforcement Learning via Learning to Compose
Programs [58.94569213396991]
プログラムポリシーを作成するための階層型プログラム強化学習フレームワークを提案する。
提案するフレームワークは,プログラム作成の学習を通じて,アウト・オブ・ディストリビュータの複雑な動作を記述するプログラムポリシーを作成することができる。
Karel ドメインの実験結果から,提案するフレームワークがベースラインより優れていることが示された。
論文 参考訳(メタデータ) (2023-01-30T14:50:46Z) - Rationale-Augmented Ensembles in Language Models [53.45015291520658]
我々は、数発のテキスト内学習のための合理化促進策を再考する。
我々は、出力空間における合理的サンプリングを、性能を確実に向上させるキーコンポーネントとして特定する。
有理拡張アンサンブルは既存のプロンプト手法よりも正確で解釈可能な結果が得られることを示す。
論文 参考訳(メタデータ) (2022-07-02T06:20:57Z) - Learning to Synthesize Programs as Interpretable and Generalizable
Policies [25.258598215642067]
本稿では,プログラムの合成を学習するフレームワークについて述べる。
実験の結果,提案フレームワークは,タスク解決プログラムを確実に合成するだけでなく,DRLやプログラム合成ベースラインよりも優れていることがわかった。
論文 参考訳(メタデータ) (2021-08-31T07:03:06Z) - Program Enhanced Fact Verification with Verbalization and Graph
Attention Network [25.33739187395408]
本稿では,プログラムと実行をテキスト推論モデルに統合する,プログラム強化型言語化とグラフ注意ネットワーク(ProgVGAT)を提案する。
本研究では,言語化されたプログラムの実行,プログラム構造,原文と表から,さまざまな証拠源を融合するグラフアテンション検証ネットワークを構築した。
実験結果から,提案手法はベンチマークデータセットTABFACTにおいて74.4%の精度で新たな最先端性能を実現することがわかった。
論文 参考訳(メタデータ) (2020-10-06T23:29:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。