論文の概要: A Scale-Invariant Diagnostic Approach Towards Understanding Dynamics of Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2407.09585v1
- Date: Fri, 12 Jul 2024 11:54:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-16 21:38:05.870679
- Title: A Scale-Invariant Diagnostic Approach Towards Understanding Dynamics of Deep Neural Networks
- Title(参考訳): ディープニューラルネットワークのダイナミクスの理解に向けてのスケール不変な診断手法
- Authors: Ambarish Moharil, Damian Tamburri, Indika Kumara, Willem-Jan Van Den Heuvel, Alireza Azarfar,
- Abstract要約: 本稿では、textitFractal Geometry を用いたスケール不変手法を導入し、コネクショナリストシステムの非線形力学を解析・説明する。
我々はフラクタル次元とテクストローネスを定量化し、それらの力学を深く理解し、テクスト固有の説明の質を高める。
- 参考スコア(独自算出の注目度): 0.09320657506524146
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces a scale-invariant methodology employing \textit{Fractal Geometry} to analyze and explain the nonlinear dynamics of complex connectionist systems. By leveraging architectural self-similarity in Deep Neural Networks (DNNs), we quantify fractal dimensions and \textit{roughness} to deeply understand their dynamics and enhance the quality of \textit{intrinsic} explanations. Our approach integrates principles from Chaos Theory to improve visualizations of fractal evolution and utilizes a Graph-Based Neural Network for reconstructing network topology. This strategy aims at advancing the \textit{intrinsic} explainability of connectionist Artificial Intelligence (AI) systems.
- Abstract(参考訳): 本稿では,複雑な接続系の非線形力学を解析・説明するために,textit{Fractal Geometry} を用いたスケール不変手法を提案する。
ディープニューラルネットワーク(DNN)におけるアーキテクチャ的自己相似性を活用することにより、フラクタル次元と \textit{roughness} を定量化し、それらの力学を深く理解し、 \textit{intrinsic} 説明の質を高める。
提案手法はカオス理論の原理を統合し,フラクタル進化の可視化を改善し,グラフベースニューラルネットワークを用いてネットワークトポロジを再構築する。
この戦略は,コネクショニスト人工知能(AI)システムの説明可能性の向上を目的としている。
関連論文リスト
- Exploiting Chaotic Dynamics as Deep Neural Networks [1.9282110216621833]
カオスの本質は、様々な最先端のディープニューラルネットワークで見ることができる。
本フレームワークは精度,収束速度,効率の点で優れた結果を提示する。
この研究は、情報処理において長い間見過ごされてきたカオスの統合のための新しい道を提供する。
論文 参考訳(メタデータ) (2024-05-29T22:03:23Z) - Nonlinear classification of neural manifolds with contextual information [6.292933471495322]
多様体容量は、人口幾何学とニューラル多様体の分離性とを結びつける有望な枠組みとして出現している。
本稿では,文脈入力情報を活用することによって,この制限を克服する理論的枠組みを提案する。
我々のフレームワークの表現性の向上は、階層階層の初期段階のディープネットワークにおける表現アンハングメントをキャプチャするが、以前は分析にはアクセスできない。
論文 参考訳(メタデータ) (2024-05-10T23:37:31Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - A Novel Convolutional Neural Network Architecture with a Continuous Symmetry [10.854440554663576]
本稿では、偏微分方程式(PDE)のクラスに着想を得た新しい畳み込みニューラルネットワーク(ConvNet)アーキテクチャを提案する。
画像分類タスクで同等の性能を持つので、連続した対称性の群を通して重みを修正できる。
論文 参考訳(メタデータ) (2023-08-03T08:50:48Z) - Reparameterization through Spatial Gradient Scaling [69.27487006953852]
リパラメータ化は、学習中に畳み込み層を等価なマルチブランチ構造に変換することによって、ディープニューラルネットワークの一般化を改善することを目的としている。
本稿では,畳み込みネットワークにおける重み間の学習焦点を再分配する空間勾配スケーリング手法を提案する。
論文 参考訳(メタデータ) (2023-03-05T17:57:33Z) - Characterizing Learning Dynamics of Deep Neural Networks via Complex
Networks [1.0869257688521987]
複素ネットワーク理論(CNT)は、ディープニューラルネットワーク(DNN)を重み付きグラフとして表現し、それらを動的システムとして研究する。
ノード/ニューロンとレイヤ、すなわちNodes StrengthとLayers Fluctuationのメトリクスを紹介します。
本フレームワークは,学習力学のトレンドを抽出し,高精度ネットワークから低次ネットワークを分離する。
論文 参考訳(メタデータ) (2021-10-06T10:03:32Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - An Ode to an ODE [78.97367880223254]
我々は、O(d) 群上の行列フローに応じて主フローの時間依存パラメータが進化する ODEtoODE と呼ばれるニューラルODE アルゴリズムの新しいパラダイムを提案する。
この2つの流れのネストされたシステムは、訓練の安定性と有効性を提供し、勾配の消滅・爆発問題を確実に解決する。
論文 参考訳(メタデータ) (2020-06-19T22:05:19Z) - Hyperbolic Neural Networks++ [66.16106727715061]
ニューラルネットワークの基本成分を1つの双曲幾何モデル、すなわちポアンカーの球モデルで一般化する。
実験により, 従来の双曲成分と比較してパラメータ効率が優れ, ユークリッド成分よりも安定性と性能が優れていた。
論文 参考訳(メタデータ) (2020-06-15T08:23:20Z) - Equivalence in Deep Neural Networks via Conjugate Matrix Ensembles [0.0]
ディープラーニングアーキテクチャの等価性を検出するための数値解析手法を開発した。
経験的証拠は、ニューラルアーキテクチャのスペクトル密度とそれに対応する共役円形アンサンブルの差が消えているという現象を裏付けている。
論文 参考訳(メタデータ) (2020-06-14T12:34:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。