論文の概要: From Experiments to Expertise: Scientific Knowledge Consolidation for AI-Driven Computational Research
- arxiv url: http://arxiv.org/abs/2603.13191v1
- Date: Fri, 13 Mar 2026 17:25:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-16 17:38:12.225103
- Title: From Experiments to Expertise: Scientific Knowledge Consolidation for AI-Driven Computational Research
- Title(参考訳): 実験からエキスパートへ:AI駆動計算研究のための科学知識の統合
- Authors: Haonan Huang,
- Abstract要約: 本稿では、AI駆動計算科学のためのオープンソースのプラットフォームQMatSuiteを紹介する。
QMatSuiteは、発見結果を保存し、新しい計算の前に知識を検索し、専用のリフレクションセッションで誤った結果を修正します。
6段階の量子力学シミュレーションワークフローのベンチマークでは、蓄積された知識は推論オーバーヘッドを67%削減し、精度を47%から3%に改善する。
- 参考スコア(独自算出の注目度): 3.7193230342956056
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While large language models (LLMs) have transformed AI agents into proficient executors of computational materials science, performing a hundred simulations does not make a researcher. What distinguishes research from routine execution is the progressive accumulation of knowledge -- learning which approaches fail, recognizing patterns across systems, and applying understanding to new problems. However, the prevailing paradigm in AI-driven computational science treats each execution in isolation, largely discarding hard-won insights between runs. Here we present QMatSuite, an open-source platform closing this gap. Agents record findings with full provenance, retrieve knowledge before new calculations, and in dedicated reflection sessions correct erroneous findings and synthesize observations into cross-compound patterns. In benchmarks on a six-step quantum-mechanical simulation workflow, accumulated knowledge reduces reasoning overhead by 67% and improves accuracy from 47% to 3% deviation from literature -- and when transferred to an unfamiliar material, achieves 1% deviation with zero pipeline failures.
- Abstract(参考訳): 大規模言語モデル(LLM)はAIエージェントを計算材料科学の熟練した実行者に変えてきたが、100のシミュレーションを実行しても研究者にはならない。
研究と日常的な実行を区別するのは、知識の漸進的な蓄積 -- アプローチの失敗、システム間のパターン認識、新しい問題への理解の適用 -- です。
しかし、AI駆動の計算科学における一般的なパラダイムは、それぞれの実行を分離して扱い、実行間のハードウォンな洞察をほとんど捨てている。
ここでは、このギャップを埋めるオープンソースプラットフォームであるQMatSuiteを紹介します。
エージェントは、完全な実績のある発見を記録し、新しい計算の前に知識を回収し、専用のリフレクションセッションで誤った発見を訂正し、複合パターンに観察を合成する。
6段階の量子力学シミュレーションワークフローのベンチマークでは、蓄積された知識は推論オーバーヘッドを67%削減し、文学からの逸脱を47%から3%改善する。
関連論文リスト
- Probing Scientific General Intelligence of LLMs with Scientist-Aligned Workflows [203.3527268311731]
PIM(Practical Inquiry Model)に基づく運用SGI定義を提案する。
深層研究、アイデア生成、ドライ/ウェット実験、実験推論の4つのタスクを通じて運用しています。
私たちのPIMによる定義、ワークフロー中心のベンチマーク、実証的な洞察は、真に科学的な発見に参加するAIシステムの基盤を確立します。
論文 参考訳(メタデータ) (2025-12-18T12:44:36Z) - SelfAI: Building a Self-Training AI System with LLM Agents [79.10991818561907]
SelfAIは、高レベルの研究目的を標準化された実験構成に変換するためのUser Agentを組み合わせた、一般的なマルチエージェントプラットフォームである。
実験マネージャは、連続的なフィードバックのための構造化知識ベースを維持しながら、異種ハードウェアをまたいだ並列かつフォールトトレラントなトレーニングを編成する。
回帰、コンピュータビジョン、科学計算、医用画像、薬物発見ベンチマークなどを通じて、SelfAIは一貫して高いパフォーマンスを達成し、冗長な試行を減らしている。
論文 参考訳(メタデータ) (2025-11-29T09:18:39Z) - TusoAI: Agentic Optimization for Scientific Methods [16.268579802762247]
大規模言語モデル(LLM)は、文学の合成、経験的データによる推論、ドメイン固有コードの生成において強力な能力を示している。
本稿では,評価機能を備えた科学的タスク記述を行うエージェントAIシステムであるTusoAIを紹介する。
TusoAIはドメイン知識を知識ツリー表現に統合し、反復的でドメイン固有の最適化とモデル診断を行う。
論文 参考訳(メタデータ) (2025-09-28T17:30:44Z) - Operationalizing Serendipity: Multi-Agent AI Workflows for Enhanced Materials Characterization with Theory-in-the-Loop [0.0]
SciLinkは、材料研究におけるセレンディピティーを運用するために設計された、オープンソースのマルチエージェント人工知能フレームワークである。
実験観察、新規性評価、理論シミュレーションの直接的な自動リンクを生成する。
本稿では,原子分解能およびハイパースペクトルデータへの応用,リアルタイムな人間専門家指導の統合能力,研究ループを閉じる能力について述べる。
論文 参考訳(メタデータ) (2025-08-07T04:59:17Z) - Efficient Machine Unlearning via Influence Approximation [75.31015485113993]
インフルエンサーベースのアンラーニングは、個別のトレーニングサンプルがモデルパラメータに与える影響を再トレーニングせずに推定する顕著なアプローチとして現れてきた。
本稿では,暗記(増分学習)と忘れ(未学習)の理論的関連性を確立する。
本稿では、インフルエンス近似アンラーニングアルゴリズムを導入し、インクリメンタルな視点から効率的なマシンアンラーニングを行う。
論文 参考訳(メタデータ) (2025-07-31T05:34:27Z) - Do NOT Think That Much for 2+3=? On the Overthinking of o1-Like LLMs [76.43407125275202]
o1のようなモデルは、推論中に人間のような長時間の思考をエミュレートすることができる。
本論文は,これらのモデルにおける過度な考察の課題に関する,最初の包括的研究である。
精度を損なうことなく、過剰思考を緩和し、推論プロセスを合理化するための戦略を提案する。
論文 参考訳(メタデータ) (2024-12-30T18:55:12Z) - The Return of Pseudosciences in Artificial Intelligence: Have Machine Learning and Deep Learning Forgotten Lessons from Statistics and History? [0.304585143845864]
これらのML手法のデザイナと最終ユーザは,統計学の基本的な教訓を忘れてしまった,と我々は主張する。
トレーニングデータのバイアスを減らすだけで、AIモデルをより倫理的にするための現在の取り組みは不十分である、と私たちは主張する。
論文 参考訳(メタデータ) (2024-11-27T08:23:23Z) - RESTOR: Knowledge Recovery in Machine Unlearning [71.75834077528305]
Webスケールコーパスでトレーニングされた大規模な言語モデルは、プライベートまたはセンシティブな情報を含むことができる。
このようなデータポイントの効果を排除するために、いくつかの機械学習アルゴリズムが提案されている。
機械学習評価のためのRESTORフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-31T20:54:35Z) - Causal Discovery from Incomplete Data: A Deep Learning Approach [21.289342482087267]
因果構造探索と因果構造探索を反復的に行うために, 因果学習を提案する。
ICLは、異なるデータメカニズムで最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-01-15T14:28:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。