論文の概要: Quantised Transforming Auto-Encoders: Achieving Equivariance to
Arbitrary Transformations in Deep Networks
- arxiv url: http://arxiv.org/abs/2111.12873v1
- Date: Thu, 25 Nov 2021 02:26:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-29 14:21:15.019204
- Title: Quantised Transforming Auto-Encoders: Achieving Equivariance to
Arbitrary Transformations in Deep Networks
- Title(参考訳): 量子トランスフォーミングオートエンコーダ:ディープネットワークにおける任意変換の等価性を実現する
- Authors: Jianbo Jiao and Jo\~ao F. Henriques
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は画像翻訳と等価である。
埋め込みは任意の等式関係を同時に従うオートエンコーダアーキテクチャを提案する。
いくつかのデータセット上で入力画像の変換版の再レンダリングに成功した結果を示す。
- 参考スコア(独自算出の注目度): 23.673155102696338
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work we investigate how to achieve equivariance to input
transformations in deep networks, purely from data, without being given a model
of those transformations. Convolutional Neural Networks (CNNs), for example,
are equivariant to image translation, a transformation that can be easily
modelled (by shifting the pixels vertically or horizontally). Other
transformations, such as out-of-plane rotations, do not admit a simple analytic
model. We propose an auto-encoder architecture whose embedding obeys an
arbitrary set of equivariance relations simultaneously, such as translation,
rotation, colour changes, and many others. This means that it can take an input
image, and produce versions transformed by a given amount that were not
observed before (e.g. a different point of view of the same object, or a colour
variation). Despite extending to many (even non-geometric) transformations, our
model reduces exactly to a CNN in the special case of translation-equivariance.
Equivariances are important for the interpretability and robustness of deep
networks, and we demonstrate results of successful re-rendering of transformed
versions of input images on several synthetic and real datasets, as well as
results on object pose estimation.
- Abstract(参考訳): 本研究では,これらの変換のモデルを与えることなく,データから入力変換の等価性を実現する方法について検討する。
例えば畳み込みニューラルネットワーク(convolutional neural network, cnns)は、画像変換と等価である。
平面外回転のような他の変換は、単純な解析モデルを認めない。
本稿では, 翻訳, 回転, 色変化など, 任意の等分散関係の組を同時に満たす自動エンコーダアーキテクチャを提案する。
これは、入力画像を取得し、これまで観測されなかった量(例えば、同じオブジェクトの異なる視点、色の変化)で変換されたバージョンを生成することができることを意味する。
多くの(幾何学的でない)変換にも拡張するが、このモデルは翻訳等価性(translation-equivariance)の特別な場合、正確にcnnに還元される。
等価性はディープ・ネットワークの解釈可能性やロバスト性において重要であり,複数の合成および実データに対する入力画像の変換版の再レンダリングおよびオブジェクトのポーズ推定の結果を示す。
関連論文リスト
- Revisiting Data Augmentation for Rotational Invariance in Convolutional
Neural Networks [0.29127054707887967]
画像分類のためのCNNにおける回転不変性について検討する。
実験により、データ拡張だけで訓練されたネットワークは、通常の非回転の場合と同様に、回転した画像の分類がほぼ可能であることが示された。
論文 参考訳(メタデータ) (2023-10-12T15:53:24Z) - Self-Supervised Learning for Group Equivariant Neural Networks [75.62232699377877]
群同変ニューラルネットワーク(英: Group equivariant Neural Network)は、入力の変換で通勤する構造に制限されたモデルである。
自己教師型タスクには、同変プリテキストラベルと異変コントラスト損失という2つの概念を提案する。
標準画像認識ベンチマークの実験では、同変ニューラルネットワークが提案された自己教師型タスクを利用することを示した。
論文 参考訳(メタデータ) (2023-03-08T08:11:26Z) - Deep Neural Networks with Efficient Guaranteed Invariances [77.99182201815763]
我々は、性能改善の問題、特にディープニューラルネットワークのサンプル複雑性に対処する。
群同変畳み込みは同変表現を得るための一般的なアプローチである。
本稿では,各ストリームが異なる変換に不変なマルチストリームアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-03-02T20:44:45Z) - The Lie Derivative for Measuring Learned Equivariance [84.29366874540217]
我々は、CNN、トランスフォーマー、ミキサーアーキテクチャにまたがる数百の事前訓練されたモデルの同値性について検討する。
その結果,不等式違反の多くは,不等式などのユビキタスネットワーク層における空間エイリアスに関連付けられることがわかった。
例えば、トランスはトレーニング後の畳み込みニューラルネットワークよりも同種である。
論文 参考訳(メタデータ) (2022-10-06T15:20:55Z) - Roto-Translation Equivariant Super-Resolution of Two-Dimensional Flows
Using Convolutional Neural Networks [0.15229257192293202]
畳み込みニューラルネットワーク(CNN)は、画像の色のような方向を持たない量としてベクトルを処理することが多い。
本研究では,ベクトルを幾何学的対象として扱う場合の2次元流体への超解像効果について検討した。
論文 参考訳(メタデータ) (2022-02-22T07:07:07Z) - Revisiting Transformation Invariant Geometric Deep Learning: Are Initial
Representations All You Need? [80.86819657126041]
変換不変および距離保存初期表現は変換不変性を達成するのに十分であることを示す。
具体的には、多次元スケーリングを変更することで、変換不変かつ距離保存された初期点表現を実現する。
我々は、TinvNNが変換不変性を厳密に保証し、既存のニューラルネットワークと組み合わせられるほど汎用的で柔軟なことを証明した。
論文 参考訳(メタデータ) (2021-12-23T03:52:33Z) - Training or Architecture? How to Incorporate Invariance in Neural
Networks [14.162739081163444]
本稿では,グループ行動に関して,ネットワークアーキテクチャを確実に不変化する手法を提案する。
簡単に言えば、実際のネットワークにデータを送る前に、可能なトランスフォーメーションを“無効化”するつもりです。
このような手法の特性を解析し、等変ネットワークに拡張し、その利点を頑健さと計算効率の両面からいくつかの数値例で示す。
論文 参考訳(メタデータ) (2021-06-18T10:31:00Z) - Grounding inductive biases in natural images:invariance stems from
variations in data [20.432568247732206]
本研究では,実際のデータセットであるImageNetの変動要因について検討する。
標準的な拡張は、翻訳とスケールの正確な組み合わせに依存していることを示す。
ImageNetの変動の主な要因は外見に大きく関係していることがわかりました。
論文 参考訳(メタデータ) (2021-06-09T14:58:57Z) - What Does CNN Shift Invariance Look Like? A Visualization Study [87.79405274610681]
畳み込みニューラルネットワーク(CNN)による特徴抽出は、機械学習タスクの画像を表現する一般的な方法である。
我々は,一般的な市販CNNモデルから抽出した特徴量の変動を計測し,可視化することに注力する。
人気ネットワークから抽出された特徴はグローバルに不変ではなく,この分散の中にバイアスやアーティファクトが存在すると結論付けている。
論文 参考訳(メタデータ) (2020-11-09T01:16:30Z) - Generalizing Convolutional Neural Networks for Equivariance to Lie
Groups on Arbitrary Continuous Data [52.78581260260455]
任意の特定のリー群からの変換に同値な畳み込み層を構築するための一般的な方法を提案する。
同じモデルアーキテクチャを画像、ボール・アンド・スティック分子データ、ハミルトン力学系に適用する。
論文 参考訳(メタデータ) (2020-02-25T17:40:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。