論文の概要: Is the end of Insight in Sight ?
- arxiv url: http://arxiv.org/abs/2505.04627v2
- Date: Wed, 04 Jun 2025 16:57:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 18:52:34.958731
- Title: Is the end of Insight in Sight ?
- Title(参考訳): Insightの終わりは見えるか?
- Authors: Jean-Michel Tucny, Mihir Durve, Sauro Succi,
- Abstract要約: ボルツマン方程式が支配する希薄気体力学問題に関する物理インフォームドニューラルネットワーク(PINN)
システムの明確な構造とよく理解された統治法にもかかわらず、訓練されたネットワークの重みはガウス分布のランダム行列に似ている。
このことは、ディープラーニングと従来のシミュレーションは、同じ結果に異なる認知経路を辿る可能性があることを示唆している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rise of deep learning challenges the longstanding scientific ideal of insight - the human capacity to understand phenomena by uncovering underlying mechanisms. In many modern applications, accurate predictions no longer require interpretable models, prompting debate about whether explainability is a realistic or even meaningful goal. From our perspective in physics, we examine this tension through a concrete case study: a physics-informed neural network (PINN) trained on a rarefied gas dynamics problem governed by the Boltzmann equation. Despite the system's clear structure and well-understood governing laws, the trained network's weights resemble Gaussian-distributed random matrices, with no evident trace of the physical principles involved. This suggests that deep learning and traditional simulation may follow distinct cognitive paths to the same outcome - one grounded in mechanistic insight, the other in statistical interpolation. Our findings raise critical questions about the limits of explainable AI and whether interpretability can - or should-remain a universal standard in artificial reasoning.
- Abstract(参考訳): 深層学習の台頭は、長年の科学的理想である洞察 - 基礎となるメカニズムを明らかにすることで現象を理解する能力 - に挑戦する。
現代の多くの応用において、正確な予測は解釈可能なモデルを必要としないため、説明可能性(英語版)が現実的であるか、あるいは意味のある目標であるかについての議論が進められている。
物理の立場からは、ボルツマン方程式が支配する希薄気体力学の問題をトレーニングした物理インフォームドニューラルネットワーク(PINN)という具体的なケーススタディを通して、この緊張関係を考察する。
システムの明確な構造とよく理解された統治法にもかかわらず、訓練されたネットワークの重みはガウス分布のランダム行列に似ており、物理的な原理の明確な痕跡はない。
これは、深層学習と伝統的なシミュレーションが、同じ結果に異なる認知経路を辿る可能性があることを示唆している。
我々の発見は、説明可能なAIの限界と、解釈可能性が人工推論において普遍的な標準を維持できるかどうかに関する批判的な疑問を提起する。
関連論文リスト
- Symbolic or Numerical? Understanding Physics Problem Solving in Reasoning LLMs [12.215295420714787]
本研究では、Deepseek-R1のような高度な命令調整推論モデルを用いて、挑戦的なSciBenchベンチマークから計算した様々な物理問題に対処する。
複雑な物理問題に答える際の最先端の精度を達成するだけでなく、象徴的導出を強調する独特の推論パターンも生成する。
論文 参考訳(メタデータ) (2025-07-02T03:51:16Z) - A Mathematical Philosophy of Explanations in Mechanistic Interpretability -- The Strange Science Part I.i [0.0]
我々は、機械的解釈可能性の研究は、モデルを理解するための原則的なアプローチであると主張している。
説明的忠実性(Explainatory Faithfulness)は、説明がモデルにどの程度適合するかを評価する。
論文 参考訳(メタデータ) (2025-05-01T19:08:34Z) - When Counterfactual Reasoning Fails: Chaos and Real-World Complexity [1.9223856107206057]
構造因果モデルの枠組みにおける反実的推論の限界について検討する。
低次モデル不確実性やカオス力学といった現実的な仮定は、直観に反する結果をもたらす。
この研究は、カオスと不確実性を特徴とする設定に反実的推論を適用する際に注意を促している。
論文 参考訳(メタデータ) (2025-03-31T08:14:51Z) - Hamiltonian Neural Networks approach to fuzzball geodesics [39.58317527488534]
Hamiltonian Neural Networks (HNN) は、ハミルトンの運動方程式を解くために損失関数を最小化するツールである。
本研究では、D1-D5円形ファズボールと呼ばれる滑らかで水平な幾何学内を移動する無質量プローブに対するハミルトン方程式を高精度に解くために訓練されたいくつかのHNNを実装した。
論文 参考訳(メタデータ) (2025-02-28T09:25:49Z) - Random Matrix Theory for Stochastic Gradient Descent [0.0]
機械学習アルゴリズムにおける学習のダイナミクスを調べることは、アプローチが成功する方法と理由を理解する上で、最重要事項である。
ここでは、ダイソン・ブラウン運動の枠組みを用いて、ランダム行列理論からウェイト行列ダイナミクスを記述する。
学習速度(ステップサイズ)とバッチサイズの間の線形スケーリングルールを導出し、重み行列力学の普遍的および非普遍的側面を同定する。
論文 参考訳(メタデータ) (2024-12-29T15:21:13Z) - DimOL: Dimensional Awareness as A New 'Dimension' in Operator Learning [60.58067866537143]
本稿では,DimOL(Dimension-aware Operator Learning)を紹介し,次元解析から洞察を得る。
DimOLを実装するために,FNOおよびTransformerベースのPDEソルバにシームレスに統合可能なProdLayerを提案する。
経験的に、DimOLモデルはPDEデータセット内で最大48%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - From Neurons to Neutrons: A Case Study in Interpretability [5.242869847419834]
高次元ニューラルネットワークはトレーニングデータの低次元表現を学習することができると我々は主張する。
このことは、解釈可能性に対するそのようなアプローチが、問題を解決するために訓練されたモデルから問題に対する新しい理解を導き出すのに有用であることを示している。
論文 参考訳(メタデータ) (2024-05-27T17:59:35Z) - X-VoE: Measuring eXplanatory Violation of Expectation in Physical Events [75.94926117990435]
本研究では,AIエージェントによる直感的な物理の把握を評価するベンチマークデータセットであるX-VoEを紹介する。
X-VoEは直感的な物理モデルの説明能力を高めるためのより高いバーを確立する。
本稿では、物理力学を捉え、隠蔽対象状態を推定する説明に基づく学習システムを提案する。
論文 参考訳(メタデータ) (2023-08-21T03:28:23Z) - Neural Astrophysical Wind Models [0.0]
本研究は, 直交常微分方程式 (ODE) に個々の項として埋め込まれたディープニューラルネットワークが, これらの物理の双方をしっかりと発見できることを示す。
我々は、3つの保存変数を明示的に解決するのではなく、マッハ数に基づく損失関数を最適化し、近分散解に対してペナルティ項を適用する。
この研究は、非線形逆問題に対する機械論的解釈性を備えた有望な発見ツールとしてのニューラルODEの実現性をさらに強調する。
論文 参考訳(メタデータ) (2023-06-20T16:37:57Z) - Potentiality realism: A realistic and indeterministic physics based on
propensities [0.0]
我々は、形式レベルでの確率から逸脱することを必要とする確率の具体的解釈について議論する。
この見解は古典物理学と量子物理学の整合に役立ち、伝統的に後者の特異な問題と見なされる概念的問題のほとんどは、実際にはすべての非決定論的物理理論に共通していることを示している。
論文 参考訳(メタデータ) (2023-05-03T21:01:17Z) - Computational Complexity of Learning Neural Networks: Smoothness and
Degeneracy [52.40331776572531]
ガウス入力分布下での学習深度3$ReLUネットワークはスムーズな解析フレームワークにおいても困難であることを示す。
この結果は, 局所擬似乱数発生器の存在についてよく研究されている。
論文 参考訳(メタデータ) (2023-02-15T02:00:26Z) - The Unreasonable Effectiveness of Deep Evidential Regression [72.30888739450343]
不確実性を考慮した回帰ベースニューラルネットワーク(NN)による新しいアプローチは、従来の決定論的手法や典型的なベイズ的NNよりも有望であることを示している。
我々は、理論的欠点を詳述し、合成および実世界のデータセットのパフォーマンスを分析し、Deep Evidential Regressionが正確な不確実性ではなく定量化であることを示す。
論文 参考訳(メタデータ) (2022-05-20T10:10:32Z) - Learning Theory of Mind via Dynamic Traits Attribution [59.9781556714202]
本稿では,過去のトラジェクトリからアクターの潜在特性ベクトルを生成するニューラルToMアーキテクチャを提案する。
この特性ベクトルは、予測ニューラルネットワークの高速重み付けスキームを介して予測機構を乗法的に変調する。
実験により,高速重量はエージェントの特性をモデル化し,マインドリーディング能力を向上させるために優れた誘導バイアスを与えることが示された。
論文 参考訳(メタデータ) (2022-04-17T11:21:18Z) - Quantum realism: axiomatization and quantification [77.34726150561087]
我々は、量子リアリズムの公理化(量子論と相容れないリアリズムの概念)を構築する。
提案された公理のほとんどすべてを満たすことを示すエントロピー量化器のクラスを明示的に構成する。
論文 参考訳(メタデータ) (2021-10-10T18:08:42Z) - Conditional physics informed neural networks [85.48030573849712]
固有値問題のクラス解を推定するための条件付きPINN(物理情報ニューラルネットワーク)を紹介します。
一つのディープニューラルネットワークが、問題全体に対する偏微分方程式の解を学習できることが示される。
論文 参考訳(メタデータ) (2021-04-06T18:29:14Z) - Abstract Spatial-Temporal Reasoning via Probabilistic Abduction and
Execution [97.50813120600026]
時空間推論は人工知能(AI)の課題である
最近の研究は、この種の抽象的推論タスクに焦点を当てている -- Raven's Progressive Matrices (RPM)
ニューロシンボリックな確率的アブダクションと実行学習者(PrAE)を提案する。
論文 参考訳(メタデータ) (2021-03-26T02:42:18Z) - Neuro-symbolic Architectures for Context Understanding [59.899606495602406]
本稿では,データ駆動型アプローチと知識駆動型アプローチの強みを組み合わせたフレームワークとして,ハイブリッドAI手法を提案する。
具体的には、知識ベースを用いて深層ニューラルネットワークの学習過程を導く方法として、ニューロシンボリズムの概念を継承する。
論文 参考訳(メタデータ) (2020-03-09T15:04:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。