論文の概要: Do Two AI Scientists Agree?
- arxiv url: http://arxiv.org/abs/2504.02822v1
- Date: Thu, 03 Apr 2025 17:58:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-04 12:57:46.341478
- Title: Do Two AI Scientists Agree?
- Title(参考訳): 2人のAI科学者が集まるか?
- Authors: Xinghong Fu, Ziming Liu, Max Tegmark,
- Abstract要約: 2つのAIモデルが同じ科学的タスクでトレーニングされている場合、彼らは同じ理論または2つの異なる理論を学ぶだろうか?
我々は、物理の標準問題に基づいて訓練されたAI科学者として、ハミルトン・ラグランジアンニューラルネットワークであるMASSを提案する。
- 参考スコア(独自算出の注目度): 15.01642959193149
- License:
- Abstract: When two AI models are trained on the same scientific task, do they learn the same theory or two different theories? Throughout history of science, we have witnessed the rise and fall of theories driven by experimental validation or falsification: many theories may co-exist when experimental data is lacking, but the space of survived theories become more constrained with more experimental data becoming available. We show the same story is true for AI scientists. With increasingly more systems provided in training data, AI scientists tend to converge in the theories they learned, although sometimes they form distinct groups corresponding to different theories. To mechanistically interpret what theories AI scientists learn and quantify their agreement, we propose MASS, Hamiltonian-Lagrangian neural networks as AI Scientists, trained on standard problems in physics, aggregating training results across many seeds simulating the different configurations of AI scientists. Our findings suggests for AI scientists switch from learning a Hamiltonian theory in simple setups to a Lagrangian formulation when more complex systems are introduced. We also observe strong seed dependence of the training dynamics and final learned weights, controlling the rise and fall of relevant theories. We finally demonstrate that not only can our neural networks aid interpretability, it can also be applied to higher dimensional problems.
- Abstract(参考訳): 2つのAIモデルが同じ科学的タスクでトレーニングされている場合、彼らは同じ理論または2つの異なる理論を学ぶだろうか?
科学の歴史を通じて、実験的な検証やファルシフィケーション(falsification)によって引き起こされる理論の台頭と崩壊を目撃した:実験データが不足しているときに多くの理論が共存するが、生き残った理論の空間はより実験的なデータが利用可能になるにつれてより制約される。
AI科学者にも同じ話が当てはまる。
トレーニングデータに提供されるシステムが増えるにつれて、AI科学者は学習した理論に収束する傾向にあるが、異なる理論に対応する異なるグループを形成することもある。
AI科学者は、理論が何を学習し、その合意を定量化するのかを機械的に解釈するため、MASS、ハミルトン・ラグランジアンニューラルネットワークをAI科学者として提案し、物理学の標準問題に基づいて訓練し、AI科学者の異なる構成をシミュレートする多くの種にわたってトレーニング結果を集約する。
我々の発見は、AI科学者が単純な設定でハミルトン理論を学習することから、より複雑なシステムが導入されたときにラグランジュの定式化に切り替えることを示唆している。
また、トレーニングダイナミクスと最終学習重量の強い種依存を観察し、関連する理論の台頭と転倒を制御する。
最終的に我々は、ニューラルネットワークが解釈可能性を助けるだけでなく、高次元問題にも適用できることを実証した。
関連論文リスト
- Many Heads Are Better Than One: Improved Scientific Idea Generation by A LLM-Based Multi-Agent System [62.832818186789545]
Virtual Scientists (VirSci) は、科学研究に固有のチームワークを模倣するために設計されたマルチエージェントシステムである。
VirSciは研究のアイデアを共同で生成し、評価し、洗練するエージェントのチームを組織している。
このマルチエージェントアプローチは、新しい科学的アイデアを生み出す上で、最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-10-12T07:16:22Z) - A Triumvirate of AI Driven Theoretical Discovery [0.0]
近い将来、AIに取って代わられる危険はないが、人間の専門知識とAIアルゴリズムのハイブリッドは、理論的な発見の不可欠な部分になる、と我々は主張する。
論文 参考訳(メタデータ) (2024-05-30T11:57:00Z) - Can AI Understand Our Universe? Test of Fine-Tuning GPT by Astrophysical Data [6.0108108767559525]
ChatGPTはここ数ヶ月で最も話題になっているコンセプトで、プロフェッショナルと一般大衆の両方を魅了している。
本稿では、銀河、クエーサー、星、ガンマ線バースト(GRBs)、ブラックホール(BHs)の観測から得られた天文学データを用いて、生成前訓練変圧器モデル(GPT)を微調整する。
我々は、LLMが科学的研究において証明された有効性を示す試験として、これを成功とみなしている。
論文 参考訳(メタデータ) (2024-04-14T20:52:19Z) - Machine learning and information theory concepts towards an AI
Mathematician [77.63761356203105]
人工知能の現在の最先端技術は、特に言語習得の点で印象的だが、数学的推論の点ではあまり重要ではない。
このエッセイは、現在のディープラーニングが主にシステム1の能力で成功するという考えに基づいている。
興味深い数学的ステートメントを構成するものについて質問するために、情報理論的な姿勢を取る。
論文 参考訳(メタデータ) (2024-03-07T15:12:06Z) - AI for Mathematics: A Cognitive Science Perspective [86.02346372284292]
数学は人間によって開発された最も強力な概念体系の1つである。
AIの急速な進歩、特に大規模言語モデル(LLM)の進歩による推進により、そのようなシステム構築に対する新たな、広範な関心が生まれている。
論文 参考訳(メタデータ) (2023-10-19T02:00:31Z) - Artificial Intelligence for Science in Quantum, Atomistic, and Continuum Systems [268.585904751315]
科学のためのAI(AI4Science)として知られる新しい研究領域
領域は、物理世界(波動関数と電子密度)、原子(分子、タンパク質、物質、相互作用)、マクロ(流体、気候、地下)まで理解することを目的としている。
主要な課題は、物理第一原理、特に対称性を深層学習法によって自然システムで捉える方法である。
論文 参考訳(メタデータ) (2023-07-17T12:14:14Z) - Learning from learning machines: a new generation of AI technology to
meet the needs of science [59.261050918992325]
科学的な発見のためのAIの有用性を高めるための新たな機会と課題を概説する。
産業におけるAIの目標と科学におけるAIの目標の区別は、データ内のパターンを識別することと、データから世界のパターンを発見することとの間に緊張を生じさせる。
論文 参考訳(メタデータ) (2021-11-27T00:55:21Z) - From Kepler to Newton: Explainable AI-based Paradigm for Science
Discovery [16.392568986688595]
我々は、科学発見のための説明可能なAIベースのパラダイムを導入する。
AIに基づく科学発見プロセスを示すために、ケプラーの惑星運動法則とニュートンの普遍重力法則が(説明可能な)AIによってどのように再発見されるかを示す。
論文 参考訳(メタデータ) (2021-11-24T00:45:27Z) - Applying Deutsch's concept of good explanations to artificial
intelligence and neuroscience -- an initial exploration [0.0]
深層学習におけるドイツの難しい原則と、より形式化された原則とどのように関連しているかを調査します。
私たちは、人間の脳を見ることで、知能でどのように難しい説明が果たす役割を見ます。
論文 参考訳(メタデータ) (2020-12-16T23:23:22Z) - Inductive Biases for Deep Learning of Higher-Level Cognition [108.89281493851358]
興味深い仮説は、人間と動物の知性はいくつかの原則によって説明できるということである。
この研究は、主に高いレベルとシーケンシャルな意識的処理に関心のある人を中心に、より大きなリストを考察する。
これらの特定の原則を明確にする目的は、人間の能力から恩恵を受けるAIシステムを構築するのに役立つ可能性があることである。
論文 参考訳(メタデータ) (2020-11-30T18:29:25Z) - Explainable Artificial Intelligence and Machine Learning: A reality
rooted perspective [0.0]
説明可能なAIとは何か,という議論があります。
我々は、希望的な思考ではなく、物理学以外の科学理論に関連して、現実的な基礎的特性を提示する。
論文 参考訳(メタデータ) (2020-01-26T15:09:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。