論文の概要: Inverse Knowledge Search over Verifiable Reasoning: Synthesizing a Scientific Encyclopedia from a Long Chains-of-Thought Knowledge Base
- arxiv url: http://arxiv.org/abs/2510.26854v1
- Date: Thu, 30 Oct 2025 15:38:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-03 17:52:15.869284
- Title: Inverse Knowledge Search over Verifiable Reasoning: Synthesizing a Scientific Encyclopedia from a Long Chains-of-Thought Knowledge Base
- Title(参考訳): 検証可能な推論に関する逆知識探索:長鎖知識ベースから科学百科事典を合成する
- Authors: Yu Li, Yuan Huang, Tao Wang, Caiyu Fan, Xiansheng Cai, Sihan Hu, Xinzijian Liu, Cheng Shi, Mingjun Xu, Zhen Wang, Yan Wang, Xiangqi Jin, Tianhan Zhang, Linfeng Zhang, Lei Wang, Youjin Deng, Pan Zhang, Weijie Sun, Xingyu Li, Weinan E, Linfeng Zhang, Zhiyuan Yao, Kun Chen,
- Abstract要約: ほとんどの科学資料は推論を圧縮し、それらを正当化する導出鎖を省略しながら結論を提示する。
この圧縮は、明示的で段階的な正当化を欠いて検証を妨げ、クロスドメインリンクを阻害する。
本稿では,LCoT(Long Chain-of-Thought)知識ベースを構築し,科学的推論を非圧縮化するスケーラブルなフレームワークを提案する。
- 参考スコア(独自算出の注目度): 42.96788956767613
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most scientific materials compress reasoning, presenting conclusions while omitting the derivational chains that justify them. This compression hinders verification by lacking explicit, step-wise justifications and inhibits cross-domain links by collapsing the very pathways that establish the logical and causal connections between concepts. We introduce a scalable framework that decompresses scientific reasoning, constructing a verifiable Long Chain-of-Thought (LCoT) knowledge base and projecting it into an emergent encyclopedia, SciencePedia. Our pipeline operationalizes an endpoint-driven, reductionist strategy: a Socratic agent, guided by a curriculum of around 200 courses, generates approximately 3 million first-principles questions. To ensure high fidelity, multiple independent solver models generate LCoTs, which are then rigorously filtered by prompt sanitization and cross-model answer consensus, retaining only those with verifiable endpoints. This verified corpus powers the Brainstorm Search Engine, which performs inverse knowledge search -- retrieving diverse, first-principles derivations that culminate in a target concept. This engine, in turn, feeds the Plato synthesizer, which narrates these verified chains into coherent articles. The initial SciencePedia comprises approximately 200,000 fine-grained entries spanning mathematics, physics, chemistry, biology, engineering, and computation. In evaluations across six disciplines, Plato-synthesized articles (conditioned on retrieved LCoTs) exhibit substantially higher knowledge-point density and significantly lower factual error rates than an equally-prompted baseline without retrieval (as judged by an external LLM). Built on this verifiable LCoT knowledge base, this reasoning-centric approach enables trustworthy, cross-domain scientific synthesis at scale and establishes the foundation for an ever-expanding encyclopedia.
- Abstract(参考訳): ほとんどの科学資料は推論を圧縮し、それらを正当化する導出鎖を省略しながら結論を提示する。
この圧縮は、明示的で段階的な正当性の欠如による検証を妨げ、概念間の論理的および因果関係を確立する経路を崩壊させることにより、ドメイン間リンクを阻害する。
本稿では,科学的推論を減らし,検証可能なLong Chain-of-Thought(LCoT)知識ベースを構築し,それを創発的な百科事典SciencePediaに投影する,スケーラブルなフレームワークを提案する。
約200のコースのカリキュラムで導かれるソクラティックエージェントは、約300万の第一原理の質問を生成する。
高い忠実性を確保するために、複数の独立解法モデルはLCoTを生成し、それを即座に衛生化とクロスモデル応答のコンセンサスによって厳格にフィルタリングし、検証可能なエンドポイントを持つもののみを保持する。
この検証されたコーパスは、inverse knowledge searchを実行するBrainstorm Search Engineを駆動する。
このエンジンはプラトンシンセサイザーを供給し、これらの検証された鎖をコヒーレントな物質にナレーションする。
初期のSciencePediaは、数学、物理学、化学、生物学、工学、計算にまたがる、およそ20万の精細なエントリで構成されている。
6分野にわたる評価において、プラトン合成品(検索されたLCoTに条件付き)は、(外部のLLMで判断されるように)検索無しの等速ベースラインよりも、知識ポイント密度が著しく高く、事実誤り率も著しく低い。
この検証可能なLCoT知識ベースに基づいて構築されたこの推論中心のアプローチは、信頼性の高いクロスドメインな科学的合成を大規模に実現し、拡大を続ける百科事典の基盤を確立する。
関連論文リスト
- Higher-Order Knowledge Representations for Agentic Scientific Reasoning [1.1458853556386797]
本稿では,多義性関係を忠実にエンコードするハイパーグラフに基づく知識表現を構築する手法を提案する。
バイオコンポジット足場上の1,100の写本のコーパスに適用し、161,172個のノードと320,201個のハイパーエッジからなるグローバルなハイパーグラフを構築した。
さらに,ハイパーグラフツールを用いたエージェントシステム,特にノード間制約を用いて,意味論的に離れた概念をブリッジできることを実証した。
論文 参考訳(メタデータ) (2026-01-08T12:25:37Z) - SciNets: Graph-Constrained Multi-Hop Reasoning for Scientific Literature Synthesis [0.0]
クロスドメインな科学的合成は、断片化された文献を接続する機械的説明を必要とする。
文献由来の概念グラフ上でのグラフ制約付きマルチホップ推論問題としてメカニスティック合成を行う。
論文 参考訳(メタデータ) (2025-12-28T12:27:42Z) - From Atomic to Composite: Reinforcement Learning Enables Generalization in Complementary Reasoning [83.94543243783285]
本研究では、内部パラメトリック知識と外部コンテキスト情報の統合を必要とする複雑なタスクである補完的推論について検討する。
RLは確率増幅器ではなく推論合成器として機能する。
論文 参考訳(メタデータ) (2025-12-01T18:27:25Z) - ARCHE: A Novel Task to Evaluate LLMs on Latent Reasoning Chain Extraction [70.53044880892196]
本稿では、複雑な推論引数を標準推論パラダイムの組み合わせに分解し、Reasoning Logic Tree (RLT) という形で分解しなければならない、ARCHE(Latent Reasoning Chain extract)という新しいタスクを紹介する。
この作業を容易にするために,我々は,1,900以上の参照と38,000の視点を含む70のNature Communicationsの記事から得られた新しいベンチマークであるARCHE Benchをリリースする。
ARCHE Bench上での10のLLMの評価では、モデルがREAとECのトレードオフを示しており、完全な標準推論チェーンを抽出することはできません。
論文 参考訳(メタデータ) (2025-11-16T07:37:09Z) - Knowledge-Augmented Long-CoT Generation for Complex Biomolecular Reasoning [51.673503054645415]
生体分子機構は、分子間相互作用、シグナルカスケード、代謝経路の多段階的推論を必要とする。
既存のアプローチはしばしばこれらの問題を悪化させる: 推論ステップは生物学的事実から逸脱したり、長い機械的依存関係を捉えるのに失敗する。
本稿では,LLMと知識グラフに基づくマルチホップ推論チェーンを統合したLong-CoT推論フレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-11T09:26:32Z) - Lost in Tokenization: Context as the Key to Unlocking Biomolecular Understanding in Scientific LLMs [78.18336140706471]
Sci-LLMは、生物発見を加速するための有望なフロンティアとして登場した。
現在の戦略では生の生体分子配列を処理する際にSci-LLMの推論能力を制限する。
より効果的な戦略は、Sci-LLMに高レベルな構造化コンテキストを提供することである。
論文 参考訳(メタデータ) (2025-10-27T09:03:21Z) - CoT-Evo: Evolutionary Distillation of Chain-of-Thought for Scientific Reasoning [63.44477226386808]
先進的な大規模言語モデル(LLM)からのCoT蒸留は、一般的な推論タスクにおいて有効であることが証明されている。
しかし、先進的なモデルでさえ、誤った、あるいは表面的な推論をしばしば生み出す科学領域では苦戦している。
この問題を解決するために, 進化的CoT蒸留フレームワークであるCoT-Evoを提案する。
論文 参考訳(メタデータ) (2025-10-15T05:29:56Z) - Spacer: Towards Engineered Scientific Inspiration [5.926432566831157]
外部の介入なしに創造的な概念を発達させる科学的な発見システムであるスペーサーを提案する。
Spacerは(i)キーワードセットを構築するインスピレーションエンジンであるNuriと(ii)これらのセットを精巧な科学的ステートメントに洗練するManifesting Pipelineで構成されている。
論文 参考訳(メタデータ) (2025-08-25T04:49:16Z) - On the Fundamental Impossibility of Hallucination Control in Large Language Models [0.0]
不合理性理論:非自明な知識集約を行うLLMは、真理的な知識表現、意味情報保存、関連する知識の啓示を同時に達成できない。
提案手法は,アイデアのオークションとして推論をモデル化し,分散コンポーネントが符号化された知識を用いて応答に影響を与えることを証明している。
幻覚と想像力は数学的に同一であり、どちらも4つの重要な性質のうちの少なくとも1つに反する。
論文 参考訳(メタデータ) (2025-06-04T23:28:39Z) - Scientific Paper Retrieval with LLM-Guided Semantic-Based Ranking [23.23119083861653]
SemRankは効率的かつ効率的な紙検索フレームワークである。
クエリ理解と概念ベースのセマンティックインデックスを組み合わせる。
実験の結果、SemRankは様々なベースレトリバーの性能を一貫して改善していることがわかった。
論文 参考訳(メタデータ) (2025-05-27T22:49:18Z) - Failure Modes of LLMs for Causal Reasoning on Narratives [51.19592551510628]
世界の知識と論理的推論の相互作用について検討する。
最先端の大規模言語モデル(LLM)は、しばしば表面的な一般化に依存している。
タスクの単純な再構成により、より堅牢な推論行動が引き起こされることを示す。
論文 参考訳(メタデータ) (2024-10-31T12:48:58Z) - GIVE: Structured Reasoning of Large Language Models with Knowledge Graph Inspired Veracity Extrapolation [108.2008975785364]
Graph Inspired Veracity Extrapolation (GIVE)は、パラメトリックメモリと非パラメトリックメモリを融合して、最小の外部入力で正確な推論を改善する新しい推論手法である。
GIVE は LLM エージェントをガイドして,最も関連する専門家データ (observe) を選択し,クエリ固有の発散思考 (reflect) に従事し,その情報を合成して最終的な出力 (speak) を生成する。
論文 参考訳(メタデータ) (2024-10-11T03:05:06Z) - Context-Aware Reasoning On Parametric Knowledge for Inferring Causal Variables [49.31233968546582]
本稿では,部分因果グラフの完成を目的とした新しいベンチマークを提案する。
原因と効果の間のバックドア変数を仮説化するLLMの強い能力を示す。
固定された関連性の単純な記憶とは異なり、我々のタスクはグラフ全体のコンテキストに応じてLCMを推論する必要がある。
論文 参考訳(メタデータ) (2024-09-04T10:37:44Z) - FiDeLiS: Faithful Reasoning in Large Language Model for Knowledge Graph Question Answering [46.41364317172677]
大規模言語モデル(LLM)は、しばしば誤ったあるいは幻覚的な応答を生成することで挑戦される。
本稿では,知識グラフから得られた検証可能な推論ステップに回答を固定することで,LLM応答の事実性を改善するための統合フレームワークFiDeLiSを提案する。
トレーニング不要のフレームワークである本手法は,性能の向上だけでなく,異なるベンチマークにおける現実性や解釈可能性の向上にも寄与する。
論文 参考訳(メタデータ) (2024-05-22T17:56:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。