論文の概要: Enabling equivariance for arbitrary Lie groups
- arxiv url: http://arxiv.org/abs/2111.08251v1
- Date: Tue, 16 Nov 2021 06:23:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-18 02:17:53.645099
- Title: Enabling equivariance for arbitrary Lie groups
- Title(参考訳): 任意のリー群に対する不変同値
- Authors: Lachlan E. MacDonald, Sameera Ramasinghe, Simon Lucey
- Abstract要約: 我々は任意のリー群のワープに不変性を許す厳密な数学的枠組みを導入する。
ベンチマークアフィン不変分類タスクに対するアプローチを実証的に検証する。
我々は、ホモグラフィー変換データセット上で優れたロバスト性を実現するホモグラフィー・コナールモデルを訓練する。
- 参考スコア(独自算出の注目度): 31.80055086317266
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Although provably robust to translational perturbations, convolutional neural
networks (CNNs) are known to suffer from extreme performance degradation when
presented at test time with more general geometric transformations of inputs.
Recently, this limitation has motivated a shift in focus from CNNs to Capsule
Networks (CapsNets). However, CapsNets suffer from admitting relatively few
theoretical guarantees of invariance. We introduce a rigourous mathematical
framework to permit invariance to any Lie group of warps, exclusively using
convolutions (over Lie groups), without the need for capsules. Previous work on
group convolutions has been hampered by strong assumptions about the group,
which precludes the application of such techniques to common warps in computer
vision such as affine and homographic. Our framework enables the implementation
of group convolutions over \emph{any} finite-dimensional Lie group. We
empirically validate our approach on the benchmark affine-invariant
classification task, where we achieve $\sim$30\% improvement in accuracy
against conventional CNNs while outperforming the state-of-the-art CapsNet. As
further illustration of the generality of our framework, we train a
homography-convolutional model which achieves superior robustness on a
homography-perturbed dataset, where CapsNet results degrade.
- Abstract(参考訳): 翻訳の摂動に対して確実に堅牢であるが、畳み込みニューラルネットワーク(CNN)は、入力のより一般的な幾何学的変換でテスト時に提示された場合、極端な性能低下に悩まされることが知られている。
近年、この制限はCNNからCapsule Networks(CapsNets)へと焦点を移す動機となっている。
しかし、capsnetは不変性の理論的保証が比較的少ない。
カプセルを必要とせず、畳み込み(リー群上)のみを用いて、任意のワープのリー群に対する不変性を許容する厳密な数学的枠組みを導入する。
グループ畳み込みに関する以前の研究は、アフィンやホモグラフィックのようなコンピュータビジョンにおける一般的なワープへのそのような技術の適用を妨げるグループについての強い仮定によって妨げられている。
我々のフレームワークは、有限次元リー群上の群畳み込みの実装を可能にする。
我々は,ベンチマークアフィン不変分類タスクのアプローチを実証的に検証し,従来のcnnに対する精度が,最先端のcapsnetを上回って$\sim$30\%向上した。
さらに,この枠組みの一般性を示すために,capsnetの結果が劣化するhomography-convolutional modelを訓練した。
関連論文リスト
- Degree-based stratification of nodes in Graph Neural Networks [66.17149106033126]
グラフニューラルネットワーク(GNN)アーキテクチャを変更して,各グループのノードに対して,重み行列を個別に学習する。
このシンプルな実装変更により、データセットとGNNメソッドのパフォーマンスが改善されているようだ。
論文 参考訳(メタデータ) (2023-12-16T14:09:23Z) - Optimization Guarantees of Unfolded ISTA and ADMM Networks With Smooth
Soft-Thresholding [57.71603937699949]
我々は,学習エポックの数の増加とともに,ほぼゼロに近いトレーニング損失を達成するための最適化保証について検討した。
トレーニングサンプル数に対する閾値は,ネットワーク幅の増加とともに増加することを示す。
論文 参考訳(メタデータ) (2023-09-12T13:03:47Z) - Fine-grained Recognition with Learnable Semantic Data Augmentation [68.48892326854494]
きめ細かい画像認識は、長年続くコンピュータビジョンの課題である。
本稿では,識別領域損失問題を軽減するため,特徴レベルのトレーニングデータを多様化することを提案する。
本手法は,いくつかの人気分類ネットワーク上での一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2023-09-01T11:15:50Z) - RobCaps: Evaluating the Robustness of Capsule Networks against Affine
Transformations and Adversarial Attacks [11.302789770501303]
Capsule Networks(CapsNets)は、画像分類タスクのための複数のオブジェクト間のポーズ関係を階層的に保存することができる。
本稿では、従来のコナールニューラルネットワーク(CNN)と比較して、CapsNetsの堅牢性に影響を与えるさまざまな要因を評価する。
論文 参考訳(メタデータ) (2023-04-08T09:58:35Z) - Binarizing Sparse Convolutional Networks for Efficient Point Cloud
Analysis [93.55896765176414]
我々は,効率的な点群解析のためのBSC-Netと呼ばれるバイナリスパース畳み込みネットワークを提案する。
我々は,移動したスパース畳み込みにおけるサイトマッチングに最適なオプションを見つけるために,異なる検索戦略を採用している。
我々のBSC-Netは、我々の厳格なベースラインを大幅に改善し、最先端のネットワーク双対化手法より優れています。
論文 参考訳(メタデータ) (2023-03-27T13:47:06Z) - Do We Really Need a Learnable Classifier at the End of Deep Neural
Network? [118.18554882199676]
本研究では、ニューラルネットワークを学習して分類器をランダムにETFとして分類し、訓練中に固定する可能性について検討する。
実験結果から,バランスの取れたデータセットの画像分類において,同様の性能が得られることがわかった。
論文 参考訳(メタデータ) (2022-03-17T04:34:28Z) - Test-time Batch Statistics Calibration for Covariate Shift [66.7044675981449]
我々は,推論中に深層モデルを新しい環境に適応させることを提案する。
バッチ統計の校正に$alpha$-BNの一般的な定式化を提案する。
また、統合テスト時間適応フレームワークCoreを形成するための新しい損失関数も提示する。
論文 参考訳(メタデータ) (2021-10-06T08:45:03Z) - More Is More -- Narrowing the Generalization Gap by Adding
Classification Heads [8.883733362171032]
我々は「TransNet」と呼ばれる入力変換に基づく既存のニューラルネットワークモデルのためのアーキテクチャ拡張を導入する。
私たちのモデルは、トレーニング時間のみに使用でき、予測のために刈り取られ、結果としてベースモデルと同等のアーキテクチャになります。
論文 参考訳(メタデータ) (2021-02-09T16:30:33Z) - Truly shift-invariant convolutional neural networks [0.0]
近年の研究では、CNNの出力は入力の小さなシフトで大きく変化することが示されている。
本稿では,適応型多相サンプリング(APS)を提案する。これは,畳み込みニューラルネットワークが,シフト下での分類性能において100%整合性を実現するための,単純なサブサンプリング手法である。
論文 参考訳(メタデータ) (2020-11-28T20:57:35Z) - Rethinking pooling in graph neural networks [12.168949038217889]
畳み込み層とその後のプール層との相互作用について検討する。
一般的な信念とは対照的に、局所プールは、関連する、広く使用されているベンチマーク上でのGNNの成功には寄与しない。
論文 参考訳(メタデータ) (2020-10-22T03:48:56Z) - Self-grouping Convolutional Neural Networks [30.732298624941738]
本稿では,SG-CNNと呼ばれる自己グループ型畳み込みニューラルネットワークの設計手法を提案する。
各フィルタについて、まず入力チャネルの重要度を評価し、重要度ベクトルを同定する。
得られたデータに依存したセントロイドを用いて、重要でない接続を創り出し、プルーニングの精度損失を暗黙的に最小化する。
論文 参考訳(メタデータ) (2020-09-29T06:24:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。