論文の概要: RAISE: Enhancing Scientific Reasoning in LLMs via Step-by-Step Retrieval
- arxiv url: http://arxiv.org/abs/2506.08625v1
- Date: Tue, 10 Jun 2025 09:40:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-11 15:11:42.167445
- Title: RAISE: Enhancing Scientific Reasoning in LLMs via Step-by-Step Retrieval
- Title(参考訳): RAISE: ステップバイステップ検索によるLCMの科学的推論の強化
- Authors: Minhae Oh, Jeonghye Kim, Nakyung Lee, Donggeon Seo, Taeuk Kim, Jungwoo Lee,
- Abstract要約: RAISEはステップバイステップの検索拡張フレームワークで、Wild corpusから論理的に関連する文書を検索する。
我々は、RAISEが科学的推論ベンチマークにおいて、他のベースラインを一貫して上回っていることを観察する。
- 参考スコア(独自算出の注目度): 6.5976671074246385
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Scientific reasoning requires not only long-chain reasoning processes, but also knowledge of domain-specific terminologies and adaptation to updated findings. To deal with these challenges for scientific reasoning, we introduce RAISE, a step-by-step retrieval-augmented framework which retrieves logically relevant documents from in-the-wild corpus. RAISE is divided into three steps: problem decomposition, logical query generation, and logical retrieval. We observe that RAISE consistently outperforms other baselines on scientific reasoning benchmarks. We analyze that unlike other baselines, RAISE retrieves documents that are not only similar in terms of the domain knowledge, but also documents logically more relevant.
- Abstract(参考訳): 科学的推論には、長い鎖の推論プロセスだけでなく、ドメイン固有の用語や最新の発見への適応の知識も必要である。
科学的推論におけるこれらの課題に対処するため、我々は、段階的に拡張された検索フレームワークであるRAISEを導入し、Wild corpusから論理的に関連のある文書を検索する。
RAISEは、問題分解、論理クエリ生成、論理検索の3つのステップに分けられる。
我々は、RAISEが科学的推論ベンチマークにおいて、他のベースラインを一貫して上回っていることを観察する。
我々は、他のベースラインとは異なり、RAISEはドメイン知識だけでなく、論理的により関連性の高いドキュメントを検索する。
関連論文リスト
- Can AI Validate Science? Benchmarking LLMs for Accurate Scientific Claim $\rightarrow$ Evidence Reasoning [6.043212666944194]
CLAIM-BENCHは,科学的クレームエビデンス抽出と検証において,大規模言語モデルの能力を評価するためのベンチマークである。
GPT-4やClaudeのようなクローズドソースモデルは、精度とリコールにおいて、オープンソースモデルよりも一貫して優れています。
戦略的に設計された3つのパスと1対1のプロンプトアプローチは、分散した証拠とクレームを正確にリンクするLSMの能力を大幅に向上させた。
論文 参考訳(メタデータ) (2025-06-09T21:04:39Z) - Scientific Paper Retrieval with LLM-Guided Semantic-Based Ranking [32.40639079110799]
SemRankは効率的かつ効率的な紙検索フレームワークである。
クエリ理解と概念ベースのセマンティックインデックスを組み合わせる。
実験の結果、SemRankは様々なベースレトリバーの性能を一貫して改善していることがわかった。
論文 参考訳(メタデータ) (2025-05-27T22:49:18Z) - AlignRAG: Leveraging Critique Learning for Evidence-Sensitive Retrieval-Augmented Reasoning [61.28113271728859]
RAGは知識ベースで大規模言語モデル(LLM)を実現するためのパラダイムとして広く採用されている。
標準的なRAGパイプラインは、モデル推論が取得した証拠と整合性を維持するのに失敗することが多く、事実上の矛盾や否定的な結論につながる。
本研究では,RAGをRetrieval-Augmented Reasoningと解釈し,中心的だが未探索な問題であるtextitReasoning Misalignmentを同定する。
論文 参考訳(メタデータ) (2025-04-21T04:56:47Z) - HopRAG: Multi-Hop Reasoning for Logic-Aware Retrieval-Augmented Generation [28.69822159828129]
グラフ構造化知識探索による論理的推論による検索を強化する新しいRAGフレームワークである textbfHopRAG を提案する。
インデックス作成中にHopRAGは、テキストチャンクを頂点とし、LLM生成した擬似クエリをエッジとして確立した論理接続をエッジとして、パスグラフを構築する。
語彙的または意味論的に類似した通路から始まり、擬似クエリとLSM推論によって導かれるマルチホップ隣人を探索し、真に関連のあるものを識別する。
論文 参考訳(メタデータ) (2025-02-18T02:24:42Z) - Elevating Legal LLM Responses: Harnessing Trainable Logical Structures and Semantic Knowledge with Legal Reasoning [19.477062052536887]
意味と論理的コヒーレンスを橋渡しする教師ありフレームワークである論理・意味統合モデル(LSIM)を提案する。
LSIMは3つの要素から構成される: 強化学習は各質問に対して構造化されたファクトルールチェーンを予測し、訓練可能なDeep Structured Semantic Model(DSSM)は最も関連性の高い質問を検索し、回答内学習は最終回答を生成する。
LSIMが従来の手法に比べて精度と信頼性を著しく向上させるような,自動測定と人的評価デーモンレートによる実世界の法的データセットのQA検証実験を行った。
論文 参考訳(メタデータ) (2025-02-11T19:33:07Z) - Agentic Reasoning: Reasoning LLMs with Tools for the Deep Research [7.4327380079414676]
本稿では,外部ツール利用エージェントを統合することで,大規模言語モデル(LLM)推論を強化するフレームワークであるAgentic Reasoningを紹介する。
本フレームワークでは,論理的関係を追跡するための構造化知識グラフを構築するMind Mapエージェントを導入している。
PhDレベルの科学的推論(GPQA)とドメイン固有の深層研究タスクの評価は、我々のアプローチが既存のモデルを大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2025-02-07T04:08:46Z) - DetermLR: Augmenting LLM-based Logical Reasoning from Indeterminacy to Determinacy [76.58614128865652]
非決定性から決定性への進化として推論過程を再考する新しい視点であるDetermLRを提案する。
まず、既知の条件を次の2つのタイプに分類する: 決定的および不決定的前提 これは、推論プロセスのオール方向を提供し、不決定的データを段階的決定的洞察に変換する際のLCMを導く。
我々は、利用可能な施設の保存と抽出、推論メモリによる推論パスの自動化、そしてその後の推論ステップに関する歴史的推論の詳細を保存する。
論文 参考訳(メタデータ) (2023-10-28T10:05:51Z) - Towards LogiGLUE: A Brief Survey and A Benchmark for Analyzing Logical Reasoning Capabilities of Language Models [56.34029644009297]
大規模言語モデル(LLM)は、形式的知識表現(KR)システムの様々な制限を克服する能力を示した。
LLMは誘導的推論において最も優れているが、誘導的推論では最も効果が低い。
モデルの性能を評価するため,シングルタスクトレーニング,マルチタスクトレーニング,および「チェーンオブ思考」知識蒸留細調整技術について検討した。
論文 参考訳(メタデータ) (2023-10-02T01:00:50Z) - AR-LSAT: Investigating Analytical Reasoning of Text [57.1542673852013]
テキストの分析的推論の課題を研究し、1991年から2016年までのロースクール入学試験からの質問からなる新しいデータセットを紹介します。
我々は,この課題をうまくこなすために必要な知識理解と推論能力を分析する。
論文 参考訳(メタデータ) (2021-04-14T02:53:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。