論文の概要: A General Framework for Robust G-Invariance in G-Equivariant Networks
- arxiv url: http://arxiv.org/abs/2310.18564v2
- Date: Fri, 26 Jan 2024 01:23:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-29 17:34:27.204531
- Title: A General Framework for Robust G-Invariance in G-Equivariant Networks
- Title(参考訳): G-同変ネットワークにおけるロバストG-不変性の一般的な枠組み
- Authors: Sophia Sanborn, Nina Miolane
- Abstract要約: 群同変畳み込みニューラルネットワーク(G$-CNN)におけるロバストなグループ不変性を実現するための一般的な方法を提案する。
三重相関の完全性は、強い強靭性を持つ$G$-TC層を与える。
この手法の利点を可換群と非可換群の両方に示す。
- 参考スコア(独自算出の注目度): 5.227502964814928
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a general method for achieving robust group-invariance in
group-equivariant convolutional neural networks ($G$-CNNs), which we call the
$G$-triple-correlation ($G$-TC) layer. The approach leverages the theory of the
triple-correlation on groups, which is the unique, lowest-degree polynomial
invariant map that is also complete. Many commonly used invariant maps--such as
the max--are incomplete: they remove both group and signal structure. A
complete invariant, by contrast, removes only the variation due to the actions
of the group, while preserving all information about the structure of the
signal. The completeness of the triple correlation endows the $G$-TC layer with
strong robustness, which can be observed in its resistance to invariance-based
adversarial attacks. In addition, we observe that it yields measurable
improvements in classification accuracy over standard Max $G$-Pooling in
$G$-CNN architectures. We provide a general and efficient implementation of the
method for any discretized group, which requires only a table defining the
group's product structure. We demonstrate the benefits of this method for
$G$-CNNs defined on both commutative and non-commutative groups--$SO(2)$,
$O(2)$, $SO(3)$, and $O(3)$ (discretized as the cyclic $C8$, dihedral $D16$,
chiral octahedral $O$ and full octahedral $O_h$ groups)--acting on
$\mathbb{R}^2$ and $\mathbb{R}^3$ on both $G$-MNIST and $G$-ModelNet10
datasets.
- Abstract(参考訳): 本稿では,グループ同変畳み込みニューラルネットワーク(G$-CNNs)におけるロバストなグループ不変性を実現するための一般的な手法を紹介し,これをG$-三重相関(G$-TC)層と呼ぶ。
このアプローチは群上の三重相関の理論を利用しており、これも完備である唯一の低次多項式不変写像である。
多くのよく使われる不変写像、例えば最大写像は不完全であり、グループ構造と信号構造の両方を取り除いている。
対照的に、完全な不変量は、信号の構造に関する全ての情報を保存しながら、グループの作用による変動のみを除去する。
三重相関の完全性は、分散ベースの逆攻撃に対する耐性において観察できる、強い堅牢性を持つ$g$-tc層を内包する。
さらに,標準的なMax$G$-Poolingを$G$-CNNアーキテクチャで比較すると,分類精度が向上することがわかった。
任意の離散群に対して、その群の積構造を定義するテーブルのみを必要とする汎用的かつ効率的な実装を提供する。
可換群と非可換群の両方で定義される$g$-cnns--$so(2)$, $o(2)$, $so(3)$, $o(3)$, and $o(3)$ (循環$c8$, dihedral $d16$, chiral octahedral $o$, full octahedral $o_h$ groups)---$\mathbb{r}^2$, $\mathbb{r}^3$-$g$-mnist と $g$-modelnet10データセットの両方に作用する。
関連論文リスト
- The Selective G-Bispectrum and its Inversion: Applications to G-Invariant Networks [3.8311785959108637]
我々は,$G$-Bispectrumをテキスト選択型$G$-Bispectrumに還元できることを示す。
ニューラルネットワークへの統合によって、従来のアプローチと比較して精度と堅牢性が向上することを示す。
論文 参考訳(メタデータ) (2024-07-10T13:35:04Z) - Learning Hierarchical Polynomials with Three-Layer Neural Networks [56.71223169861528]
3層ニューラルネットワークを用いた標準ガウス分布における階層関数の学習問題について検討する。
次数$k$s$p$の大規模なサブクラスの場合、正方形損失における階層的勾配によるトレーニングを受けた3層ニューラルネットワークは、テストエラーを消すためにターゲット$h$を学習する。
この研究は、3層ニューラルネットワークが複雑な特徴を学習し、その結果、幅広い階層関数のクラスを学ぶ能力を示す。
論文 参考訳(メタデータ) (2023-11-23T02:19:32Z) - Fast, Expressive SE$(n)$ Equivariant Networks through Weight-Sharing in Position-Orientation Space [15.495593104596399]
我々は,畳み込みネットワークにおける重み共有の概念を,ポイントペア上でのメッセージ関数の共有として定式化する。
我々は3次元点雲処理のための効率的な同変群畳み込みネットワークを開発した。
論文 参考訳(メタデータ) (2023-10-04T17:06:32Z) - A Unified Framework for Uniform Signal Recovery in Nonlinear Generative
Compressed Sensing [68.80803866919123]
非線形測定では、ほとんどの先行結果は一様ではない、すなわち、すべての$mathbfx*$に対してではなく、固定された$mathbfx*$に対して高い確率で保持される。
本フレームワークはGCSに1ビット/一様量子化観測と単一インデックスモデルを標準例として適用する。
また、指標集合が計量エントロピーが低い製品プロセスに対して、より厳密な境界を生み出す濃度不等式も開発する。
論文 参考訳(メタデータ) (2023-09-25T17:54:19Z) - Densely Connected $G$-invariant Deep Neural Networks with Signed
Permutation Representations [6.200483285433661]
有限群$G$,$G$-不変ディープニューラルネットワーク(G$-DNN)アーキテクチャをReLUアクティベーション付きで導入・検討する。
G$-DNNのプリアクティベーションは、Emphsigned permutation representations (signed perm-reps) of $G$で変換できる。
文献からReLUのアクティベーション関数にアクセスできるものよりも、より許容可能な$G$-DNNアーキテクチャが存在することを示す。
論文 参考訳(メタデータ) (2023-03-08T14:35:03Z) - Brauer's Group Equivariant Neural Networks [0.0]
我々は、層が$mathbbRn$のテンソルパワーを持つような全ての可能な群同変ニューラルネットワークの完全な特徴付けを提供する。
そのようなテンソルパワー空間間の学習可能、線型、等変層関数に対する行列の分散集合を求める。
論文 参考訳(メタデータ) (2022-12-16T18:08:51Z) - Equivalence Between SE(3) Equivariant Networks via Steerable Kernels and
Group Convolution [90.67482899242093]
近年, 入力の回転と変換において等価な3次元データに対して, ニューラルネットワークを設計するための幅広い手法が提案されている。
両手法とその等価性を詳細に解析し,その2つの構成をマルチビュー畳み込みネットワークに関連付ける。
また、同値原理から新しいTFN非線形性を導出し、実用的なベンチマークデータセット上でテストする。
論文 参考訳(メタデータ) (2022-11-29T03:42:11Z) - Average-Case Complexity of Tensor Decomposition for Low-Degree
Polynomials [93.59919600451487]
多くの統計的推論タスクにおいて「統計計算ギャップ」が発生する。
1つの成分が他の成分よりもわずかに大きいランダムオーダー3分解モデルを考える。
テンソルエントリは$ll n3/2$のとき最大成分を正確に推定できるが、$rgg n3/2$のとき失敗する。
論文 参考訳(メタデータ) (2022-11-10T00:40:37Z) - Homogeneous vector bundles and $G$-equivariant convolutional neural
networks [0.0]
G$-equivariant convolutional Neural Network (GCNN) は、均一な$G$-space $mathcalM$で定義されたデータの幾何学的深層学習モデルである。
本稿では、一モジュラーリー群 $G$ およびコンパクト部分群 $K leq G$ の場合、同次空間 $mathcalM = G/K$ 上の GCNN を解析する。
論文 参考訳(メタデータ) (2021-05-12T02:06:04Z) - Improving Robustness and Generality of NLP Models Using Disentangled
Representations [62.08794500431367]
スーパービジョンニューラルネットワークはまず入力$x$を単一の表現$z$にマップし、次に出力ラベル$y$にマッピングする。
本研究では,非交叉表現学習の観点から,NLPモデルの堅牢性と汎用性を改善する手法を提案する。
提案した基準でトレーニングしたモデルは、広範囲の教師付き学習タスクにおいて、より堅牢性とドメイン適応性を向上することを示す。
論文 参考訳(メタデータ) (2020-09-21T02:48:46Z) - Stochastic Flows and Geometric Optimization on the Orthogonal Group [52.50121190744979]
直交群 $O(d)$ 上の幾何駆動最適化アルゴリズムの新しいクラスを示す。
提案手法は,深層,畳み込み,反復的なニューラルネットワーク,強化学習,フロー,メトリック学習など,機械学習のさまざまな分野に適用可能であることを示す。
論文 参考訳(メタデータ) (2020-03-30T15:37:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。