論文の概要: Is the end of Insight in Sight ?
- arxiv url: http://arxiv.org/abs/2505.04627v2
- Date: Wed, 04 Jun 2025 16:57:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 18:52:34.958731
- Title: Is the end of Insight in Sight ?
- Title(参考訳): Insightの終わりは見えるか?
- Authors: Jean-Michel Tucny, Mihir Durve, Sauro Succi,
- Abstract要約: ボルツマン方程式が支配する希薄気体力学問題に関する物理インフォームドニューラルネットワーク(PINN)
システムの明確な構造とよく理解された統治法にもかかわらず、訓練されたネットワークの重みはガウス分布のランダム行列に似ている。
このことは、ディープラーニングと従来のシミュレーションは、同じ結果に異なる認知経路を辿る可能性があることを示唆している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rise of deep learning challenges the longstanding scientific ideal of insight - the human capacity to understand phenomena by uncovering underlying mechanisms. In many modern applications, accurate predictions no longer require interpretable models, prompting debate about whether explainability is a realistic or even meaningful goal. From our perspective in physics, we examine this tension through a concrete case study: a physics-informed neural network (PINN) trained on a rarefied gas dynamics problem governed by the Boltzmann equation. Despite the system's clear structure and well-understood governing laws, the trained network's weights resemble Gaussian-distributed random matrices, with no evident trace of the physical principles involved. This suggests that deep learning and traditional simulation may follow distinct cognitive paths to the same outcome - one grounded in mechanistic insight, the other in statistical interpolation. Our findings raise critical questions about the limits of explainable AI and whether interpretability can - or should-remain a universal standard in artificial reasoning.
- Abstract(参考訳): 深層学習の台頭は、長年の科学的理想である洞察 - 基礎となるメカニズムを明らかにすることで現象を理解する能力 - に挑戦する。
現代の多くの応用において、正確な予測は解釈可能なモデルを必要としないため、説明可能性(英語版)が現実的であるか、あるいは意味のある目標であるかについての議論が進められている。
物理の立場からは、ボルツマン方程式が支配する希薄気体力学の問題をトレーニングした物理インフォームドニューラルネットワーク(PINN)という具体的なケーススタディを通して、この緊張関係を考察する。
システムの明確な構造とよく理解された統治法にもかかわらず、訓練されたネットワークの重みはガウス分布のランダム行列に似ており、物理的な原理の明確な痕跡はない。
これは、深層学習と伝統的なシミュレーションが、同じ結果に異なる認知経路を辿る可能性があることを示唆している。
我々の発見は、説明可能なAIの限界と、解釈可能性が人工推論において普遍的な標準を維持できるかどうかに関する批判的な疑問を提起する。
関連論文リスト
- Hamiltonian Neural Networks approach to fuzzball geodesics [39.58317527488534]
Hamiltonian Neural Networks (HNN) は、ハミルトンの運動方程式を解くために損失関数を最小化するツールである。
本研究では、D1-D5円形ファズボールと呼ばれる滑らかで水平な幾何学内を移動する無質量プローブに対するハミルトン方程式を高精度に解くために訓練されたいくつかのHNNを実装した。
論文 参考訳(メタデータ) (2025-02-28T09:25:49Z) - Random Matrix Theory for Stochastic Gradient Descent [0.0]
機械学習アルゴリズムにおける学習のダイナミクスを調べることは、アプローチが成功する方法と理由を理解する上で、最重要事項である。
ここでは、ダイソン・ブラウン運動の枠組みを用いて、ランダム行列理論からウェイト行列ダイナミクスを記述する。
学習速度(ステップサイズ)とバッチサイズの間の線形スケーリングルールを導出し、重み行列力学の普遍的および非普遍的側面を同定する。
論文 参考訳(メタデータ) (2024-12-29T15:21:13Z) - DimOL: Dimensional Awareness as A New 'Dimension' in Operator Learning [60.58067866537143]
本稿では,DimOL(Dimension-aware Operator Learning)を紹介し,次元解析から洞察を得る。
DimOLを実装するために,FNOおよびTransformerベースのPDEソルバにシームレスに統合可能なProdLayerを提案する。
経験的に、DimOLモデルはPDEデータセット内で最大48%のパフォーマンス向上を達成する。
論文 参考訳(メタデータ) (2024-10-08T10:48:50Z) - Neural Astrophysical Wind Models [0.0]
本研究は, 直交常微分方程式 (ODE) に個々の項として埋め込まれたディープニューラルネットワークが, これらの物理の双方をしっかりと発見できることを示す。
我々は、3つの保存変数を明示的に解決するのではなく、マッハ数に基づく損失関数を最適化し、近分散解に対してペナルティ項を適用する。
この研究は、非線形逆問題に対する機械論的解釈性を備えた有望な発見ツールとしてのニューラルODEの実現性をさらに強調する。
論文 参考訳(メタデータ) (2023-06-20T16:37:57Z) - Computational Complexity of Learning Neural Networks: Smoothness and
Degeneracy [52.40331776572531]
ガウス入力分布下での学習深度3$ReLUネットワークはスムーズな解析フレームワークにおいても困難であることを示す。
この結果は, 局所擬似乱数発生器の存在についてよく研究されている。
論文 参考訳(メタデータ) (2023-02-15T02:00:26Z) - Conditional physics informed neural networks [85.48030573849712]
固有値問題のクラス解を推定するための条件付きPINN(物理情報ニューラルネットワーク)を紹介します。
一つのディープニューラルネットワークが、問題全体に対する偏微分方程式の解を学習できることが示される。
論文 参考訳(メタデータ) (2021-04-06T18:29:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。