論文の概要: Mathematical Foundation of Interpretable Equivariant Surrogate Models
- arxiv url: http://arxiv.org/abs/2503.01942v1
- Date: Mon, 03 Mar 2025 15:06:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:26:45.660876
- Title: Mathematical Foundation of Interpretable Equivariant Surrogate Models
- Title(参考訳): 解釈可能な同変サロゲートモデルの数学的基礎
- Authors: Jacopo Joy Colombini, Filippo Bonchi, Francesco Giannini, Fosca Giannotti, Roberto Pellungrini, Patrizio Frosini,
- Abstract要約: 本稿では,ニューラルネットワークの説明可能性に関する厳密な数学的枠組みを紹介する。
中心的な概念は、特定の図形の非可換性を測定することによってGEO間の距離を定量化することである。
畳み込みニューラルネットワークを用いた画像分類のような、古典的な機械学習シナリオにどのように適用できるかを示す。
- 参考スコア(独自算出の注目度): 4.433915375867081
- License:
- Abstract: This paper introduces a rigorous mathematical framework for neural network explainability, and more broadly for the explainability of equivariant operators called Group Equivariant Operators (GEOs) based on Group Equivariant Non-Expansive Operators (GENEOs) transformations. The central concept involves quantifying the distance between GEOs by measuring the non-commutativity of specific diagrams. Additionally, the paper proposes a definition of interpretability of GEOs according to a complexity measure that can be defined according to each user preferences. Moreover, we explore the formal properties of this framework and show how it can be applied in classical machine learning scenarios, like image classification with convolutional neural networks.
- Abstract(参考訳): 本稿では、ニューラルネットワークの説明可能性に関する厳密な数学的枠組みを導入し、より広範に、G群同変演算子(G群同変演算子)(G群同変演算子)(G群同変演算子)(G群同変演算子)(G群同変演算子(G群同変演算子)(G群同変演算子)(G群同変演算子)(G群同変演算子)(G群同変演算子)(G群同変演算子)(G群同変演算子)(G群同変演算子)(G群同変演算子)(G群同変演算子)(G群同変演算子)(G群同変演算子)(G群同変演算子)(G群同変演算子)))を変換した。
中心的な概念は、特定の図形の非可換性を測定することによってGEO間の距離を定量化することである。
さらに,各ユーザの好みに応じて定義できる複雑性尺度に基づき,GEOの解釈可能性の定義を提案する。
さらに、このフレームワークの形式的特性について検討し、畳み込みニューラルネットワークを用いた画像分類のような古典的な機械学習シナリオにどのように適用できるかを示す。
関連論文リスト
- Decomposition of Equivariant Maps via Invariant Maps: Application to Universal Approximation under Symmetry [3.0518581575184225]
我々は、群 $G$ に関する不変写像と同変写像の関係の理論を発展させる。
我々は、この理論をグループ対称性を持つディープニューラルネットワークの文脈で活用し、それらのメカニズムに関する新たな洞察を得る。
論文 参考訳(メタデータ) (2024-09-25T13:27:41Z) - Self-Supervised Learning for Group Equivariant Neural Networks [75.62232699377877]
群同変ニューラルネットワーク(英: Group equivariant Neural Network)は、入力の変換で通勤する構造に制限されたモデルである。
自己教師型タスクには、同変プリテキストラベルと異変コントラスト損失という2つの概念を提案する。
標準画像認識ベンチマークの実験では、同変ニューラルネットワークが提案された自己教師型タスクを利用することを示した。
論文 参考訳(メタデータ) (2023-03-08T08:11:26Z) - A PAC-Bayesian Generalization Bound for Equivariant Networks [15.27608414735815]
我々は、同変ネットワークに対するノルムベースのPAC-ベイジアン一般化境界を導出する。
境界は、群のサイズ、および一般化誤差に対する可約表現の多重度と次数の影響を特徴づける。
一般に、モデルにおけるより大きなグループサイズを用いることで、広範な数値実験によって証明された一般化誤差が向上することを示す。
論文 参考訳(メタデータ) (2022-10-24T12:07:03Z) - Equivariant Transduction through Invariant Alignment [71.45263447328374]
グループ内ハードアライメント機構を組み込んだ,新しいグループ同変アーキテクチャを提案する。
我々のネットワーク構造は、既存のグループ同変アプローチよりも強い同変特性を発達させることができる。
また、SCANタスクにおいて、従来のグループ同変ネットワークよりも経験的に優れていたことが判明した。
論文 参考訳(メタデータ) (2022-09-22T11:19:45Z) - Equivariance and generalization in neural networks [0.0]
ネットワーク特性間の翻訳的等式を組み込んだ結果に焦点をあてる。
等変ネットワークの利点は、複素スカラー場の理論を研究することによって実証される。
ほとんどのタスクにおいて、最良の同変アーキテクチャは、非同変アーキテクチャよりもはるかに優れた性能と一般化を達成できる。
論文 参考訳(メタデータ) (2021-12-23T12:38:32Z) - Generalization capabilities of neural networks in lattice applications [0.0]
翻訳等変ニューラルネットワークを用いた非同変ニューラルネットワークの利点について検討する。
我々の最良の同変アーキテクチャは、その非同変アーキテクチャよりも大幅に性能を向上し、一般化できることが示される。
論文 参考訳(メタデータ) (2021-12-23T11:48:06Z) - Frame Averaging for Invariant and Equivariant Network Design [50.87023773850824]
フレーム平均化(FA)は、既知の(バックボーン)アーキテクチャを新しい対称性タイプに不変あるいは同変に適応するためのフレームワークである。
FAモデルが最大表現力を持つことを示す。
我々は,新しいユニバーサルグラフニューラルネット(GNN),ユニバーサルユークリッド運動不変点クラウドネットワーク,およびユークリッド運動不変メッセージパッシング(MP)GNNを提案する。
論文 参考訳(メタデータ) (2021-10-07T11:05:23Z) - Topographic VAEs learn Equivariant Capsules [84.33745072274942]
本稿では, 地理的に整理された潜伏変数を用いた深部生成モデルを効率的に学習するための新しい手法であるTopographic VAEを紹介する。
このようなモデルでは,MNIST上での桁数クラス,幅,スタイルなどの健全な特徴に応じて,その活性化を組織化することが実際に学べることが示される。
我々は、既存の群同変ニューラルネットワークの能力を拡張して、複素変換に近似した同値性を示す。
論文 参考訳(メタデータ) (2021-09-03T09:25:57Z) - On the geometric and Riemannian structure of the spaces of group
equivariant non-expansive operators [0.0]
群同変非拡張作用素は、最近、トポロジカルデータ解析とディープラーニングの基本的な構成要素として提案されている。
群同変非拡大作用素の空間 $mathcalF$ がリーマン多様体の構造によってどのように与えられるかを示す。
また、検討された多様体において、代表群同変非拡大作用素の有限集合を選択する手順も記述する。
論文 参考訳(メタデータ) (2021-03-03T17:29:25Z) - LieTransformer: Equivariant self-attention for Lie Groups [49.9625160479096]
群等価ニューラルネットワークは群不変ニューラルネットワークの構成要素として用いられる。
我々は、文学の範囲を、ディープラーニングモデルの顕著な構築ブロックとして現れつつある自己注意にまで広げる。
任意のリー群とその離散部分群に同値なリー自己結合層からなる構造であるリー変換器を提案する。
論文 参考訳(メタデータ) (2020-12-20T11:02:49Z) - Closed-Form Factorization of Latent Semantics in GANs [65.42778970898534]
画像合成のために訓練されたGAN(Generative Adversarial Networks)の潜在空間に、解釈可能な次元の豊富なセットが出現することが示されている。
本研究では,GANが学習した内部表現について検討し,その基礎となる変動要因を教師なしで明らかにする。
本稿では,事前学習した重みを直接分解することで,潜在意味発見のためのクローズドフォーム因数分解アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-07-13T18:05:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。