論文の概要: Active Inference AI Systems for Scientific Discovery
- arxiv url: http://arxiv.org/abs/2506.21329v3
- Date: Sat, 02 Aug 2025 20:50:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 14:07:57.199796
- Title: Active Inference AI Systems for Scientific Discovery
- Title(参考訳): 科学的発見のためのアクティブ推論AIシステム
- Authors: Karthik Duraisamy,
- Abstract要約: この観点では、進歩は抽象論、推論、経験的根拠の3つのギャップを互いに強化する。
デザイン原則は、想像空間を推論し、世界から学ぶシステムのために提案されている。
- 参考スコア(独自算出の注目度): 1.450405446885067
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid evolution of artificial intelligence has led to expectations of transformative impact on science, yet current systems remain fundamentally limited in enabling genuine scientific discovery. This perspective contends that progress turns on closing three mutually reinforcing gaps in abstraction, reasoning and empirical grounding. Central to addressing these gaps is recognizing complementary cognitive modes: thinking as slow, iterative hypothesis generation -- exploring counterfactual spaces where physical laws can be temporarily violated to discover new patterns -- and reasoning as fast, deterministic validation, traversing established knowledge graphs to test consistency with known principles. Abstractions in this loop should be manipulable models that enable counterfactual prediction, causal attribution, and refinement. Design principles -- rather than a monolithic recipe -- are proposed for systems that reason in imaginary spaces and learn from the world: causal, multimodal models for internal simulation; persistent, uncertainty-aware scientific memory that distinguishes hypotheses from established claims; formal verification pathways coupled to computations and experiments. It is also argued that the inherent ambiguity in feedback from simulations and experiments, and underlying uncertainties make human judgment indispensable, not as a temporary scaffold but as a permanent architectural component. Evaluations must assess the system's ability to identify novel phenomena, propose falsifiable hypotheses, and efficiently guide experimental programs toward genuine discoveries.
- Abstract(参考訳): 人工知能の急速な進化は、科学への変革的な影響の期待につながったが、現在のシステムは、真の科学的発見を可能にするために根本的に制限されている。
この観点では、進歩は抽象論、推論、経験的根拠の3つのギャップを互いに強化する。
ゆっくりと反復的な仮説生成 – 物理法則を一時的に違反して新しいパターンを発見する、反ファクト空間を探究する — と、確立した知識グラフを探索して、既知の原則との整合性をテストすること。
このループの抽象化は、反事実予測、因果帰属、洗練を可能にする操作可能なモデルであるべきである。
設計原則(モノリシックなレシピではなく)は、想像空間を推論し、世界から学ぶシステムのために提案されている。内部シミュレーションのための因果的、マルチモーダルモデル、仮説と確立されたクレームを区別する永続的で不確実な科学記憶、計算や実験と結合した形式的な検証経路である。
また、シミュレーションや実験からのフィードバックの本来の曖昧さや、根底にある不確実性は、人間の判断を一時的な足場としてではなく、恒久的な建築要素として欠かせないものにしているとも主張されている。
評価は、新しい現象を識別し、偽装可能な仮説を提案し、実験プログラムを真の発見に向けて効率的に誘導するシステムの能力を評価する必要がある。
関連論文リスト
- Position: Intelligent Science Laboratory Requires the Integration of Cognitive and Embodied AI [98.19195693735487]
知的科学研究所(ISL)のパラダイムを提案する。
ISLは、認知と具体的知性を深く統合した多層クローズドループフレームワークである。
このようなシステムは、現在の科学的発見の限界を克服するために不可欠である、と我々は主張する。
論文 参考訳(メタデータ) (2025-06-24T13:31:44Z) - Bayesian Epistemology with Weighted Authority: A Formal Architecture for Truth-Promoting Autonomous Scientific Reasoning [0.0]
本稿では,ベイジアン・エピステロジーとウェイト・オーソリティ(BEWA)を紹介する。
BEWAは、構造化された科学的主張に対する動的で確率論的に一貫性のある関数としての信念を運用している。
グラフベースのクレーム伝搬、権威的信頼性モデリング、暗号化アンカー、ゼロ知識監査検証をサポートする。
論文 参考訳(メタデータ) (2025-06-19T04:22:35Z) - Controllable Logical Hypothesis Generation for Abductive Reasoning in Knowledge Graphs [54.596180382762036]
知識グラフの帰納的推論は、観測された実体からもっともらしい論理的仮説を生成することを目的としている。
可制御性の欠如により、単一の観測は、多くの妥当だが冗長あるいは無関係な仮説をもたらす可能性がある。
帰納的推論の実用性を改善するために,制御可能な仮説生成タスクを導入する。
論文 参考訳(メタデータ) (2025-05-27T09:36:47Z) - Temporal Interception and Present Reconstruction: A Cognitive-Signal Model for Human and AI Decision Making [0.0]
本稿では,人間の心と人工知能がリアルタイムの認識にどのようにアプローチできるかを説明する新しい理論モデルを提案する。
宇宙の信号遅延、神経学的反応時間、古来の静けさの認知状態を調べることで、反応知覚から近い将来の意識的インターフェースへどのように移行するかを探る。
論文 参考訳(メタデータ) (2025-05-11T15:38:27Z) - Nature's Insight: A Novel Framework and Comprehensive Analysis of Agentic Reasoning Through the Lens of Neuroscience [11.174550573411008]
エージェント推論のための神経科学に着想を得た新しい枠組みを提案する。
我々は,既存のAI推論手法を体系的に分類し,分析するために,この枠組みを適用した。
本稿では,ニューラルインスパイアされた新しい推論手法を提案する。
論文 参考訳(メタデータ) (2025-05-07T14:25:46Z) - Embodied World Models Emerge from Navigational Task in Open-Ended Environments [5.785697934050656]
プロシージャ的に生成された平面迷路を解決するために,スパース報酬のみで訓練された反復エージェントが,方向,距離,障害物レイアウトなどの計量概念を自律的に内部化できるかどうかを問う。
トレーニングの後、エージェントは、下層の空間モデルにヒントを与える行動である、見えない迷路において、常に準最適経路を生成する。
論文 参考訳(メタデータ) (2025-04-15T17:35:13Z) - Continuum-Interaction-Driven Intelligence: Human-Aligned Neural Architecture via Crystallized Reasoning and Fluid Generation [1.5800607910450124]
現在のAIシステムは、幻覚、予測不能、そして人間の意思決定と不一致といった課題に直面している。
本研究では、確率的生成(LLM)とホワイトボックスの手続き的推論(チェーン・オブ・シント)を統合し、解釈可能で、継続的な学習可能で、人間に準拠したAIシステムを構築する二チャンネルインテリジェントアーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-04-12T18:15:49Z) - When Counterfactual Reasoning Fails: Chaos and Real-World Complexity [1.9223856107206057]
構造因果モデルの枠組みにおける反実的推論の限界について検討する。
低次モデル不確実性やカオス力学といった現実的な仮定は、直観に反する結果をもたらす。
この研究は、カオスと不確実性を特徴とする設定に反実的推論を適用する際に注意を促している。
論文 参考訳(メタデータ) (2025-03-31T08:14:51Z) - LLM and Simulation as Bilevel Optimizers: A New Paradigm to Advance Physical Scientific Discovery [141.39722070734737]
本稿では,大規模言語モデルの知識駆動型抽象推論能力をシミュレーションの計算力で強化することを提案する。
本稿では,2段階最適化フレームワークであるSGA(Scientific Generative Agent)を紹介する。
法発見と分子設計における枠組みの有効性を実証するための実験を行った。
論文 参考訳(メタデータ) (2024-05-16T03:04:10Z) - Learning World Models With Hierarchical Temporal Abstractions: A Probabilistic Perspective [2.61072980439312]
内部世界モデルを開発するためのフォーマリズムの開発は、人工知能と機械学習の分野における重要な研究課題である。
この論文は、状態空間モデルを内部世界モデルとして広く用いられることによるいくつかの制限を識別する。
形式主義におけるモデルの構造は、信念の伝播を用いた正確な確率的推論を促進するとともに、時間を通してのバックプロパゲーションによるエンドツーエンドの学習を促進する。
これらの形式主義は、世界の状態における不確実性の概念を統合し、現実世界の性質をエミュレートし、その予測の信頼性を定量化する能力を向上させる。
論文 参考訳(メタデータ) (2024-04-24T12:41:04Z) - Neural Operators for Accelerating Scientific Simulations and Design [85.89660065887956]
Neural Operatorsとして知られるAIフレームワークは、継続的ドメインで定義された関数間のマッピングを学習するための原則的なフレームワークを提供する。
ニューラルオペレータは、計算流体力学、天気予報、物質モデリングなど、多くのアプリケーションで既存のシミュレータを拡張または置き換えることができる。
論文 参考訳(メタデータ) (2023-09-27T00:12:07Z) - Large Language Models for Automated Open-domain Scientific Hypotheses Discovery [50.40483334131271]
本研究は,社会科学の学術的仮説発見のための最初のデータセットを提案する。
従来のデータセットとは異なり、新しいデータセットには、(1)オープンドメインデータ(RAW Webコーパス)を観察として使用すること、(2)人間性にさらに新しい仮説を提案することが必要である。
パフォーマンス向上のための3つのフィードバック機構を含む,タスクのためのマルチモジュールフレームワークが開発されている。
論文 参考訳(メタデータ) (2023-09-06T05:19:41Z) - Neural Causal Models for Counterfactual Identification and Estimation [62.30444687707919]
本稿では,ニューラルモデルによる反事実文の評価について検討する。
まず、神経因果モデル(NCM)が十分に表現可能であることを示す。
第2に,反事実分布の同時同定と推定を行うアルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-09-30T18:29:09Z) - Active Inference in Robotics and Artificial Agents: Survey and
Challenges [51.29077770446286]
我々は、状態推定、制御、計画、学習のためのアクティブ推論の最先端理論と実装についてレビューする。
本稿では、適応性、一般化性、堅牢性の観点から、その可能性を示す関連する実験を紹介する。
論文 参考訳(メタデータ) (2021-12-03T12:10:26Z) - Observing Interventions: A logic for thinking about experiments [62.997667081978825]
本稿では,実験から学ぶ論理への第一歩について述べる。
我々のアプローチにとって重要なことは、介入の概念が(現実的または仮説的な)実験の形式的表現として使用できるという考えである。
提案された全ての論理系に対して、健全で完全な公理化を提供する。
論文 参考訳(メタデータ) (2021-11-25T09:26:45Z) - ACRE: Abstract Causal REasoning Beyond Covariation [90.99059920286484]
因果誘導における現在の視覚システムの系統的評価のための抽象因果分析データセットについて紹介する。
Blicket実験における因果発見の研究の流れに触発され、独立シナリオと介入シナリオのいずれにおいても、以下の4種類の質問で視覚的推論システムに問い合わせる。
純粋なニューラルモデルは確率レベルのパフォーマンスの下で連想戦略に向かう傾向があるのに対し、ニューロシンボリックな組み合わせは後方ブロッキングの推論に苦しむ。
論文 参考訳(メタデータ) (2021-03-26T02:42:38Z) - Formalizing Falsification for Theories of Consciousness Across
Computational Hierarchies [0.0]
統合情報理論(IIT)は、意識の卓越した理論として広く見なされている。
展開論」という形での認識論的な問題は、IITの反感をもたらした。
IITが有限状態オートマトンレベルで同時にファルシフィケートされ、状態オートマトンレベルでは不可能であることを示す。
論文 参考訳(メタデータ) (2020-06-12T18:05:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。