論文の概要: THE-Tree: Can Tracing Historical Evolution Enhance Scientific Verification and Reasoning?
- arxiv url: http://arxiv.org/abs/2506.21763v1
- Date: Thu, 26 Jun 2025 20:44:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-30 21:12:23.009336
- Title: THE-Tree: Can Tracing Historical Evolution Enhance Scientific Verification and Reasoning?
- Title(参考訳): The-Tree: 科学的検証と推論の歴史的進化を追跡できるか?
- Authors: Xin Wang, Jiyao Liu, Yulong Xiao, Junzhi Ning, Lihao Liu, Junjun He, Botian Shi, Kaicheng Yu,
- Abstract要約: textbfTechnology textbfHistory textbfEvolution Treeは,これらの領域固有の進化木を科学文献から構築する計算フレームワークである。
ノード拡張の間、新しい"Think-Verbalize-Cite-Verify"プロセスを利用している。
それぞれの進化的リンクは、回復した自然言語推論機構によって論理的コヒーレンスと明らかな支持のために検証される。
- 参考スコア(独自算出の注目度): 16.91455372359864
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) are accelerating scientific idea generation, but rigorously evaluating these numerous, often superficial, AI-generated propositions for novelty and factual accuracy is a critical bottleneck; manual verification is too slow.Existing validation methods are inadequate: LLMs as standalone verifiers may hallucinate and lack domain knowledge (our findings show ~60\% unawareness of relevant papers in specific domains), while traditional citation networks lack explicit causality and narrative surveys are unstructured.This underscores a core challenge: the absence of structured, verifiable, and causally-linked historical data of scientific evolution.To address this,we introduce \textbf{THE-Tree} (\textbf{T}echnology \textbf{H}istory \textbf{E}volution Tree), a computational framework that constructs such domain-specific evolution trees from scientific literature.THE-Tree employs a search algorithm to explore evolutionary paths. During its node expansion, it utilizes a novel "Think-Verbalize-Cite-Verify" process: an LLM proposes potential advancements and cites supporting literature. Critically, each proposed evolutionary link is then validated for logical coherence and evidential support by a recovered natural language inference mechanism that interrogates the cited literature, ensuring that each step is grounded.We construct and validate 88 THE-Trees across diverse domains and release a benchmark dataset including up to 71k fact verifications covering 27k papers to foster further research.Experiments demonstrate that i) in graph completion, our THE-Tree improves hit@1 by 8\% to 14\% across multiple models compared to traditional citation networks; ii) for predicting future scientific developments, it improves hit@1 metric by nearly 10\%; and iii) when combined with other methods, it boosts the performance of evaluating important scientific papers by almost 100\%.
- Abstract(参考訳): 大規模言語モデル(LLMs)は、科学的アイデアの生成を加速しているが、これら数多くの、表面的で、しばしば表面的で、現実的な正確性のためのAI生成命題を厳密に評価することは、重大なボトルネックであり、手作業による検証は不十分である。既存の検証手法は不十分である: 独立した検証対象としてのLLMは、ドメイン知識を幻覚し、欠如している(我々の発見は、特定のドメインにおける関係する論文の無知を示している)。一方、伝統的な引用ネットワークには明確な因果性や物語的サーベイが欠如している。これは、構造的、検証可能で、因果的にリンクされた科学進化の歴史的データがないこと。これに対処するために、 {\textbf{Thee} (\text{bech} \text{bech} \text{bech} \text{fectory \text{fectory \text{e}}}}}, 科学進化の進化の過程を探索する。
ノード拡張の間、新しい"Think-Verbalize-Cite-Verify"プロセスを使用し、LCMは潜在的な進歩を提案し、文献を引用する。
批判的に、各進化的リンクは、引用された文献を疑問視し、各ステップが根拠となるように復元された自然言語推論機構によって論理的コヒーレンスと明らかな支持のために検証され、我々は、さまざまなドメインにまたがる88のThe-Treesを構築し検証し、さらに研究を促進するために、27k論文をカバーする71kの事実検証を含むベンチマークデータセットをリリースする。
i) グラフ補完においては、従来の引用ネットワークと比較して、hit@1を8\%から14\%改善します。
二 今後の科学的発展を予測するため、hit@1の指標を約10%改善する。
三 他の方法と組み合わせることで、重要科学論文の評価性能を約100倍に向上させる。
関連論文リスト
- Mapping the Evolution of Research Contributions using KnoVo [0.0]
KnoVoは、科学文献における研究ノベルティの進化を定量化し分析するために設計されたインテリジェントなフレームワークである。
論文の新規性は、その多層励起ネットワークにおける前処理と後処理の両方に対して決定される。
論文 参考訳(メタデータ) (2025-06-20T23:17:11Z) - Bayesian Epistemology with Weighted Authority: A Formal Architecture for Truth-Promoting Autonomous Scientific Reasoning [0.0]
本稿では,ベイジアン・エピステロジーとウェイト・オーソリティ(BEWA)を紹介する。
BEWAは、構造化された科学的主張に対する動的で確率論的に一貫性のある関数としての信念を運用している。
グラフベースのクレーム伝搬、権威的信頼性モデリング、暗号化アンカー、ゼロ知識監査検証をサポートする。
論文 参考訳(メタデータ) (2025-06-19T04:22:35Z) - Atomic Reasoning for Scientific Table Claim Verification [83.14588611859826]
非専門家は、その高い情報密度と認識される信頼性のために、科学的表に基づく主張を誤解させるおそれがある。
既存のテーブルクレーム検証モデル、例えば最先端の大規模言語モデル(LLM)は、しばしば精密なきめ細かい推論に苦しむ。
認知負荷理論に触発されて、表に基づく主張を解釈するモデルの能力を高めるには、認知負荷を減らす必要がある。
論文 参考訳(メタデータ) (2025-06-08T02:46:22Z) - XtraGPT: Context-Aware and Controllable Academic Paper Revision via Human-AI Collaboration [41.44785777328187]
XtraGPTはオープンソースの大規模言語モデル(LLM)の最初のスイートである。
我々は140,000以上の命令-応答ペアで注釈付けされたトップレベルの会場から7,040件の研究論文のデータセットを紹介した。
XtraGPTは、同じスケールのベースラインを著しく上回り、プロプライエタリなシステムの品質にアプローチする。
論文 参考訳(メタデータ) (2025-05-16T15:02:19Z) - Think&Cite: Improving Attributed Text Generation with Self-Guided Tree Search and Progress Reward Modeling [63.98194996746229]
大型言語モデル(LLM)は幻覚を起こし、事実的に誤った情報を生み出す傾向にある。
我々はThink&Citeと呼ばれる新しいフレームワークを提案し、検索と統合された多段階推論問題として属性付きテキスト生成を定式化する。
論文 参考訳(メタデータ) (2024-12-19T13:55:48Z) - Epidemiology-informed Network for Robust Rumor Detection [59.89351792706995]
本稿では, 疫学知識を統合し, 性能を高めるための新しい疫学情報ネットワーク(EIN)を提案する。
疫学理論をうわさ検出に適応させるため,各利用者が情報源情報に対する姿勢を付加することが期待されている。
実験結果から,提案したEINは実世界のデータセット上で最先端の手法より優れるだけでなく,樹木の深度にまたがる堅牢性も向上することが示された。
論文 参考訳(メタデータ) (2024-11-20T00:43:32Z) - Enhancing Systematic Decompositional Natural Language Inference Using Informal Logic [51.967603572656266]
我々は,分解包含を注釈付けするための一貫した理論的なアプローチを導入する。
我々の新しいデータセットRDTEは、前回の分解エンターメントデータセットよりもかなり高い内部整合性(+9%)を持つことがわかった。
また,RDTE による知識蒸留によるエンテーメント分類器の訓練や,エンテーメントツリー推論エンジンへの導入により,精度と検証精度が向上することが確認された。
論文 参考訳(メタデータ) (2024-02-22T18:55:17Z) - Heterogeneous Graph Reasoning for Fact Checking over Texts and Tables [22.18384189336634]
HeterFCは、非構造化情報および構造化情報に対するFact Checkingのための単語レベルの不均一グラフベースのモデルである。
我々は,レーショナルグラフニューラルネットワークによる情報伝達,クレームとエビデンス間の相互作用を行う。
本稿では,エビデンス検索における潜在的な不正確性を考慮したマルチタスク損失関数を提案する。
論文 参考訳(メタデータ) (2024-02-20T14:10:40Z) - Evaluating BERT-based Scientific Relation Classifiers for Scholarly
Knowledge Graph Construction on Digital Library Collections [5.8962650619804755]
関連する科学的概念間の意味的関係を推測することは重要なステップである。
BERTベースの事前学習モデルは、自動関係分類のために広く研究されている。
既存の手法は主にクリーンテキストで評価される。
これらの制限に対処するため、私たちはOCRノイズの多いテキストを作成しました。
論文 参考訳(メタデータ) (2023-05-03T17:32:16Z) - RerrFact: Reduced Evidence Retrieval Representations for Scientific
Claim Verification [4.052777228128475]
本稿では,各予測サブタスクに対して連続的に二項分類を行うモジュラー手法を提案する。
我々は、まず非関連な有理を区別し、与えられた主張に対する支持または反証する有理を識別する2段階のスタンス予測を行う。
実験的に、我々のシステムRerrFactは微調整もシンプルな設計もせず、モデルパラメータのごく一部はリーダーボード上で競争的に公正である。
論文 参考訳(メタデータ) (2022-02-05T21:52:45Z) - Enhancing Scientific Papers Summarization with Citation Graph [78.65955304229863]
引用グラフを用いて科学論文の要約作業を再定義します。
我々は,141kの研究論文を異なる領域に格納した,新しい科学論文要約データセットセマンティックスタディネットワーク(ssn)を構築した。
我々のモデルは、事前訓練されたモデルと比較して競争性能を達成することができる。
論文 参考訳(メタデータ) (2021-04-07T11:13:35Z) - Fact or Fiction: Verifying Scientific Claims [53.29101835904273]
本稿では,研究文献から,REFUTESやREFUTESが与えられた科学的主張であることを示す証拠を含む抄録を抽出する新たな課題である,科学的クレーム検証を紹介する。
SciFactは、1.4Kの専門家による科学的主張と、ラベルや合理性に注釈を付けたエビデンスを含む抽象概念を組み合わせたデータセットである。
このシステムは,CORD-19コーパスの証拠を同定することにより,新型コロナウイルス関連クレームを検証可能であることを示す。
論文 参考訳(メタデータ) (2020-04-30T17:22:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。