論文の概要: Inverse Knowledge Search over Verifiable Reasoning: Synthesizing a Scientific Encyclopedia from a Long Chains-of-Thought Knowledge Base
- arxiv url: http://arxiv.org/abs/2510.26854v1
- Date: Thu, 30 Oct 2025 15:38:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-03 17:52:15.869284
- Title: Inverse Knowledge Search over Verifiable Reasoning: Synthesizing a Scientific Encyclopedia from a Long Chains-of-Thought Knowledge Base
- Title(参考訳): 検証可能な推論に関する逆知識探索:長鎖知識ベースから科学百科事典を合成する
- Authors: Yu Li, Yuan Huang, Tao Wang, Caiyu Fan, Xiansheng Cai, Sihan Hu, Xinzijian Liu, Cheng Shi, Mingjun Xu, Zhen Wang, Yan Wang, Xiangqi Jin, Tianhan Zhang, Linfeng Zhang, Lei Wang, Youjin Deng, Pan Zhang, Weijie Sun, Xingyu Li, Weinan E, Linfeng Zhang, Zhiyuan Yao, Kun Chen,
- Abstract要約: ほとんどの科学資料は推論を圧縮し、それらを正当化する導出鎖を省略しながら結論を提示する。
この圧縮は、明示的で段階的な正当化を欠いて検証を妨げ、クロスドメインリンクを阻害する。
本稿では,LCoT(Long Chain-of-Thought)知識ベースを構築し,科学的推論を非圧縮化するスケーラブルなフレームワークを提案する。
- 参考スコア(独自算出の注目度): 42.96788956767613
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most scientific materials compress reasoning, presenting conclusions while omitting the derivational chains that justify them. This compression hinders verification by lacking explicit, step-wise justifications and inhibits cross-domain links by collapsing the very pathways that establish the logical and causal connections between concepts. We introduce a scalable framework that decompresses scientific reasoning, constructing a verifiable Long Chain-of-Thought (LCoT) knowledge base and projecting it into an emergent encyclopedia, SciencePedia. Our pipeline operationalizes an endpoint-driven, reductionist strategy: a Socratic agent, guided by a curriculum of around 200 courses, generates approximately 3 million first-principles questions. To ensure high fidelity, multiple independent solver models generate LCoTs, which are then rigorously filtered by prompt sanitization and cross-model answer consensus, retaining only those with verifiable endpoints. This verified corpus powers the Brainstorm Search Engine, which performs inverse knowledge search -- retrieving diverse, first-principles derivations that culminate in a target concept. This engine, in turn, feeds the Plato synthesizer, which narrates these verified chains into coherent articles. The initial SciencePedia comprises approximately 200,000 fine-grained entries spanning mathematics, physics, chemistry, biology, engineering, and computation. In evaluations across six disciplines, Plato-synthesized articles (conditioned on retrieved LCoTs) exhibit substantially higher knowledge-point density and significantly lower factual error rates than an equally-prompted baseline without retrieval (as judged by an external LLM). Built on this verifiable LCoT knowledge base, this reasoning-centric approach enables trustworthy, cross-domain scientific synthesis at scale and establishes the foundation for an ever-expanding encyclopedia.
- Abstract(参考訳): ほとんどの科学資料は推論を圧縮し、それらを正当化する導出鎖を省略しながら結論を提示する。
この圧縮は、明示的で段階的な正当性の欠如による検証を妨げ、概念間の論理的および因果関係を確立する経路を崩壊させることにより、ドメイン間リンクを阻害する。
本稿では,科学的推論を減らし,検証可能なLong Chain-of-Thought(LCoT)知識ベースを構築し,それを創発的な百科事典SciencePediaに投影する,スケーラブルなフレームワークを提案する。
約200のコースのカリキュラムで導かれるソクラティックエージェントは、約300万の第一原理の質問を生成する。
高い忠実性を確保するために、複数の独立解法モデルはLCoTを生成し、それを即座に衛生化とクロスモデル応答のコンセンサスによって厳格にフィルタリングし、検証可能なエンドポイントを持つもののみを保持する。
この検証されたコーパスは、inverse knowledge searchを実行するBrainstorm Search Engineを駆動する。
このエンジンはプラトンシンセサイザーを供給し、これらの検証された鎖をコヒーレントな物質にナレーションする。
初期のSciencePediaは、数学、物理学、化学、生物学、工学、計算にまたがる、およそ20万の精細なエントリで構成されている。
6分野にわたる評価において、プラトン合成品(検索されたLCoTに条件付き)は、(外部のLLMで判断されるように)検索無しの等速ベースラインよりも、知識ポイント密度が著しく高く、事実誤り率も著しく低い。
この検証可能なLCoT知識ベースに基づいて構築されたこの推論中心のアプローチは、信頼性の高いクロスドメインな科学的合成を大規模に実現し、拡大を続ける百科事典の基盤を確立する。
関連論文リスト
- Lost in Tokenization: Context as the Key to Unlocking Biomolecular Understanding in Scientific LLMs [78.18336140706471]
Sci-LLMは、生物発見を加速するための有望なフロンティアとして登場した。
現在の戦略では生の生体分子配列を処理する際にSci-LLMの推論能力を制限する。
より効果的な戦略は、Sci-LLMに高レベルな構造化コンテキストを提供することである。
論文 参考訳(メタデータ) (2025-10-27T09:03:21Z) - CoT-Evo: Evolutionary Distillation of Chain-of-Thought for Scientific Reasoning [63.44477226386808]
先進的な大規模言語モデル(LLM)からのCoT蒸留は、一般的な推論タスクにおいて有効であることが証明されている。
しかし、先進的なモデルでさえ、誤った、あるいは表面的な推論をしばしば生み出す科学領域では苦戦している。
この問題を解決するために, 進化的CoT蒸留フレームワークであるCoT-Evoを提案する。
論文 参考訳(メタデータ) (2025-10-15T05:29:56Z) - Spacer: Towards Engineered Scientific Inspiration [5.926432566831157]
外部の介入なしに創造的な概念を発達させる科学的な発見システムであるスペーサーを提案する。
Spacerは(i)キーワードセットを構築するインスピレーションエンジンであるNuriと(ii)これらのセットを精巧な科学的ステートメントに洗練するManifesting Pipelineで構成されている。
論文 参考訳(メタデータ) (2025-08-25T04:49:16Z) - On the Fundamental Impossibility of Hallucination Control in Large Language Models [0.0]
不合理性理論:非自明な知識集約を行うLLMは、真理的な知識表現、意味情報保存、関連する知識の啓示を同時に達成できない。
提案手法は,アイデアのオークションとして推論をモデル化し,分散コンポーネントが符号化された知識を用いて応答に影響を与えることを証明している。
幻覚と想像力は数学的に同一であり、どちらも4つの重要な性質のうちの少なくとも1つに反する。
論文 参考訳(メタデータ) (2025-06-04T23:28:39Z) - Scientific Paper Retrieval with LLM-Guided Semantic-Based Ranking [23.23119083861653]
SemRankは効率的かつ効率的な紙検索フレームワークである。
クエリ理解と概念ベースのセマンティックインデックスを組み合わせる。
実験の結果、SemRankは様々なベースレトリバーの性能を一貫して改善していることがわかった。
論文 参考訳(メタデータ) (2025-05-27T22:49:18Z) - Failure Modes of LLMs for Causal Reasoning on Narratives [51.19592551510628]
世界の知識と論理的推論の相互作用について検討する。
最先端の大規模言語モデル(LLM)は、しばしば表面的な一般化に依存している。
タスクの単純な再構成により、より堅牢な推論行動が引き起こされることを示す。
論文 参考訳(メタデータ) (2024-10-31T12:48:58Z) - GIVE: Structured Reasoning of Large Language Models with Knowledge Graph Inspired Veracity Extrapolation [108.2008975785364]
Graph Inspired Veracity Extrapolation (GIVE)は、パラメトリックメモリと非パラメトリックメモリを融合して、最小の外部入力で正確な推論を改善する新しい推論手法である。
GIVE は LLM エージェントをガイドして,最も関連する専門家データ (observe) を選択し,クエリ固有の発散思考 (reflect) に従事し,その情報を合成して最終的な出力 (speak) を生成する。
論文 参考訳(メタデータ) (2024-10-11T03:05:06Z) - Context-Aware Reasoning On Parametric Knowledge for Inferring Causal Variables [49.31233968546582]
本稿では,部分因果グラフの完成を目的とした新しいベンチマークを提案する。
原因と効果の間のバックドア変数を仮説化するLLMの強い能力を示す。
固定された関連性の単純な記憶とは異なり、我々のタスクはグラフ全体のコンテキストに応じてLCMを推論する必要がある。
論文 参考訳(メタデータ) (2024-09-04T10:37:44Z) - FiDeLiS: Faithful Reasoning in Large Language Model for Knowledge Graph Question Answering [46.41364317172677]
大規模言語モデル(LLM)は、しばしば誤ったあるいは幻覚的な応答を生成することで挑戦される。
本稿では,知識グラフから得られた検証可能な推論ステップに回答を固定することで,LLM応答の事実性を改善するための統合フレームワークFiDeLiSを提案する。
トレーニング不要のフレームワークである本手法は,性能の向上だけでなく,異なるベンチマークにおける現実性や解釈可能性の向上にも寄与する。
論文 参考訳(メタデータ) (2024-05-22T17:56:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。