論文の概要: Generating Literature-Driven Scientific Theories at Scale
- arxiv url: http://arxiv.org/abs/2601.16282v1
- Date: Thu, 22 Jan 2026 19:27:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-26 14:27:27.386162
- Title: Generating Literature-Driven Scientific Theories at Scale
- Title(参考訳): 文学駆動型科学理論を大規模に生成する
- Authors: Peter Jansen, Peter Clark, Doug Downey, Daniel S. Weld,
- Abstract要約: 我々は、13.7kソース論文を用いて2.9k理論を合成し、大規模に理論生成を研究する。
実験の結果, パラメトリックメモリを生成に用いた場合と比較して, 文献支援手法は, 既存の証拠の一致と4.6kの論文の今後の結果の予測において, 極めて優れた理論を生成することがわかった。
- 参考スコア(独自算出の注目度): 40.805399037575256
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Contemporary automated scientific discovery has focused on agents for generating scientific experiments, while systems that perform higher-level scientific activities such as theory building remain underexplored. In this work, we formulate the problem of synthesizing theories consisting of qualitative and quantitative laws from large corpora of scientific literature. We study theory generation at scale, using 13.7k source papers to synthesize 2.9k theories, examining how generation using literature-grounding versus parametric knowledge, and accuracy-focused versus novelty-focused generation objectives change theory properties. Our experiments show that, compared to using parametric LLM memory for generation, our literature-supported method creates theories that are significantly better at both matching existing evidence and at predicting future results from 4.6k subsequently-written papers
- Abstract(参考訳): 現代の自動科学的発見は、科学的実験を作成するためのエージェントに焦点を当てているが、理論構築のような高度な科学的活動を行うシステムは、まだ未調査である。
本研究では,科学文献の大規模コーパスから定性的および定量的な法則からなる理論を合成する問題を定式化する。
本研究では,13.7kのソース・ペーパーを用いて2.9k理論を合成し,文献グラウンドとパラメトリック・ナレッジを用いた生成方法,正確性を重視した対新規性に着目した生成目標が理論特性を変化させる方法について検討する。
実験の結果, パラメトリックLCMメモリを生成に用いた場合と比較して, 文献支援手法は, 既存の証拠の一致と4.6kの論文の今後の結果の予測において, 極めて優れた理論を生成することがわかった。
関連論文リスト
- SciRAG: Adaptive, Citation-Aware, and Outline-Guided Retrieval and Synthesis for Scientific Literature [52.36039386997026]
我々は科学文献探索のためのオープンソースのフレームワークであるSciRAGを紹介する。
1) 逐次的証拠収集と並列的証拠収集を柔軟に交互に交互に行う適応的検索,(2) 引用グラフを利用して文書を整理・フィルタリングする引用型記号推論,(3) 整合性と透過的帰属性を確保するために回答を計画・批評・洗練するアウトライン誘導合成,である。
論文 参考訳(メタデータ) (2025-11-18T11:09:19Z) - Mapping the Evolution of Research Contributions using KnoVo [0.0]
KnoVoは、科学文献における研究ノベルティの進化を定量化し分析するために設計されたインテリジェントなフレームワークである。
論文の新規性は、その多層励起ネットワークにおける前処理と後処理の両方に対して決定される。
論文 参考訳(メタデータ) (2025-06-20T23:17:11Z) - LLM and Simulation as Bilevel Optimizers: A New Paradigm to Advance Physical Scientific Discovery [141.39722070734737]
本稿では,大規模言語モデルの知識駆動型抽象推論能力をシミュレーションの計算力で強化することを提案する。
本稿では,2段階最適化フレームワークであるSGA(Scientific Generative Agent)を紹介する。
法発見と分子設計における枠組みの有効性を実証するための実験を行った。
論文 参考訳(メタデータ) (2024-05-16T03:04:10Z) - ResearchAgent: Iterative Research Idea Generation over Scientific Literature with Large Language Models [56.08917291606421]
ResearchAgentは、新しい作品のアイデアと運用のためのAIベースのシステムである。
ResearchAgentは、新しい問題を自動で定義し、手法と設計実験を提案し、繰り返し修正する。
我々は、複数の分野にわたる科学論文に関するResearchAgentを実験的に検証した。
論文 参考訳(メタデータ) (2024-04-11T13:36:29Z) - Mapping the Increasing Use of LLMs in Scientific Papers [99.67983375899719]
2020年1月から2024年2月にかけて、arXiv、bioRxiv、Natureのポートフォリオジャーナルで950,965の論文をまとめて、体系的で大規模な分析を行った。
計算機科学の論文では, LLMの使用が着実に増加し, 最大, 最速の成長が観察された。
論文 参考訳(メタデータ) (2024-04-01T17:45:15Z) - Large Language Models are Zero Shot Hypothesis Proposers [17.612235393984744]
大規模言語モデル(LLM)は、情報障壁を断ち切ることを約束する、グローバルかつ学際的な知識の豊富なものである。
バイオメディカル文献から背景知識と仮説ペアからなるデータセットを構築した。
ゼロショット, 少数ショット, 微調整設定において, 最上位モデルの仮説生成能力を評価する。
論文 参考訳(メタデータ) (2023-11-10T10:03:49Z) - SciMON: Scientific Inspiration Machines Optimized for Novelty [68.46036589035539]
文献に基づく新たな科学的方向を生成するために,ニューラルランゲージモデルを探索し,拡張する。
モデルが入力背景コンテキストとして使用される新しい設定で、劇的な出発をとっています。
本稿では,過去の科学的論文から「吸入」を抽出するモデリングフレームワークであるSciMONを紹介する。
論文 参考訳(メタデータ) (2023-05-23T17:12:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。