論文の概要: Latent Equivariant Operators for Robust Object Recognition: Promise and Challenges
- arxiv url: http://arxiv.org/abs/2602.18406v2
- Date: Mon, 23 Feb 2026 18:44:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 15:42:50.192624
- Title: Latent Equivariant Operators for Robust Object Recognition: Promise and Challenges
- Title(参考訳): ロバスト物体認識のための潜時等変演算子:約束と挑戦
- Authors: Minh Dinh, Stéphane Deny,
- Abstract要約: 等変ネットワークは、対称変換を越えて知識を一般化する問題の解である。
ここでは、これらのネットワークを単純なアウト・オブ・ディストリビューションの分類にうまく活用する方法を示す。
概念的には興味深いが、より複雑なデータセットへの道のりについて、今後の課題について議論する。
- 参考スコア(独自算出の注目度): 2.1198879079315573
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the successes of deep learning in computer vision, difficulties persist in recognizing objects that have undergone group-symmetric transformations rarely seen during training$\unicode{x2013}$for example objects seen in unusual poses, scales, positions, or combinations thereof. Equivariant neural networks are a solution to the problem of generalizing across symmetric transformations, but require knowledge of transformations a priori. An alternative family of architectures proposes to learn equivariant operators in a latent space, from examples of symmetric transformations. Here, using simple datasets of rotated and translated noisy MNIST, we illustrate how such architectures can successfully be harnessed for out-of-distribution classification, thus overcoming the limitations of both traditional and equivariant networks. While conceptually enticing, we discuss challenges ahead on the path of scaling these architectures to more complex datasets.
- Abstract(参考訳): コンピュータビジョンにおける深層学習の成功にもかかわらず、トレーニング中にほとんど見られない群対称変換を持つ物体を認識することは困難であり、例えば、異常なポーズ、スケール、位置、あるいはそれらの組み合わせで見られる。
等変ニューラルネットワークは、対称変換をまたいで一般化する問題の解であるが、変換の知識は先入観を必要とする。
別のアーキテクチャの族は、対称変換の例から、潜在空間で同変作用素を学ぶことを提案する。
ここでは、回転および変換された雑音MNISTの単純なデータセットを用いて、そのようなアーキテクチャを分配外分類にうまく利用し、従来のネットワークと同変ネットワークの両方の制限を克服する方法について説明する。
概念的には魅力的だが、これらのアーキテクチャをより複雑なデータセットにスケールする上での課題について論じる。
関連論文リスト
- Generalized Linear Mode Connectivity for Transformers [87.32299363530996]
驚くべき現象はリニアモード接続(LMC)であり、独立に訓練されたモデルを低損失またはゼロ損失の経路で接続することができる。
以前の研究は主に置換によるニューロンの並べ替えに焦点を合わせてきたが、そのようなアプローチは範囲に限られている。
我々は、4つの対称性クラス(置換、半置換、変換、一般可逆写像)をキャプチャする統一的なフレームワークを導入する。
この一般化により、独立に訓練された視覚変換器とGPT-2モデルの間の低障壁とゼロバリア線形経路の発見が可能となった。
論文 参考訳(メタデータ) (2025-06-28T01:46:36Z) - PseudoNeg-MAE: Self-Supervised Point Cloud Learning using Conditional Pseudo-Negative Embeddings [55.55445978692678]
PseudoNeg-MAEは、ポイントクラウドマスマスキングオートエンコーダのグローバルな特徴表現を強化する。
本研究では,ネットワークが識別的表現を保ちながら,よりリッチな変換キューをキャプチャできる新たな損失を提案する。
論文 参考訳(メタデータ) (2024-09-24T07:57:21Z) - Self-Supervised Learning for Group Equivariant Neural Networks [75.62232699377877]
群同変ニューラルネットワーク(英: Group equivariant Neural Network)は、入力の変換で通勤する構造に制限されたモデルである。
自己教師型タスクには、同変プリテキストラベルと異変コントラスト損失という2つの概念を提案する。
標準画像認識ベンチマークの実験では、同変ニューラルネットワークが提案された自己教師型タスクを利用することを示した。
論文 参考訳(メタデータ) (2023-03-08T08:11:26Z) - Deep Neural Networks with Efficient Guaranteed Invariances [77.99182201815763]
我々は、性能改善の問題、特にディープニューラルネットワークのサンプル複雑性に対処する。
群同変畳み込みは同変表現を得るための一般的なアプローチである。
本稿では,各ストリームが異なる変換に不変なマルチストリームアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-03-02T20:44:45Z) - Imaging with Equivariant Deep Learning [9.333799633608345]
我々は、同変イメージングの出現する分野を概観し、それが一般化と新たなイメージングの機会をいかに向上させるかを示す。
獲得物理と集団行動の相互作用と、反復的再構成、ブラインド圧縮センシング、自己教師型学習との関連を示す。
論文 参考訳(メタデータ) (2022-09-05T02:13:57Z) - Equivariant Mesh Attention Networks [10.517110532297021]
上述したすべての変換にほぼ同値なメッシュデータに対する注意に基づくアーキテクチャを提案する。
提案したアーキテクチャは,これらの局所的・言語的変換に対して同変であり,従って堅牢であることを確認した。
論文 参考訳(メタデータ) (2022-05-21T19:53:14Z) - Learning Symmetric Embeddings for Equivariant World Models [9.781637768189158]
入力空間(例えば画像)を符号化する学習対称埋め込みネットワーク(SEN)を提案する。
このネットワークは、同変のタスクネットワークでエンドツーエンドにトレーニングして、明示的に対称な表現を学ぶことができる。
実験により、SENは複素対称性表現を持つデータへの同変ネットワークの適用を促進することを示した。
論文 参考訳(メタデータ) (2022-04-24T22:31:52Z) - Transformation Coding: Simple Objectives for Equivariant Representations [17.544323284367927]
簡単な目的を通した均質な深層埋め込みを求める深層表現学習への非生成的アプローチを提案する。
既存の同変ネットワークとは対照的に、我々の変換符号化アプローチはフィードフォワード層やアーキテクチャの選択を制約しない。
論文 参考訳(メタデータ) (2022-02-19T01:43:13Z) - Revisiting Transformation Invariant Geometric Deep Learning: An Initial Representation Perspective [38.314914702299056]
我々は幾何学的データのための単純で汎用的なプラグインであるTransform In Neural Networks (TinvNN)を提案する。
具体的には,多次元スケーリングを改良することにより,変換不変性と距離保存初期点表現を実現する。
我々は、TinvNNが変換不変性を厳密に保証し、既存のニューラルネットワークと組み合わせられるほど汎用的で柔軟なことを証明した。
論文 参考訳(メタデータ) (2021-12-23T03:52:33Z) - Frame Averaging for Equivariant Shape Space Learning [85.42901997467754]
形状空間学習に対称性を組み込む自然な方法は、形状空間(エンコーダ)への写像と形状空間(デコーダ)からの写像が関連する対称性に同値であることを問うことである。
本稿では,2つのコントリビューションを導入することで,エンコーダとデコーダの等価性を組み込む枠組みを提案する。
論文 参考訳(メタデータ) (2021-12-03T06:41:19Z) - Robustness to Transformations Across Categories: Is Robustness To
Transformations Driven by Invariant Neural Representations? [1.7251667223970861]
ディープ畳み込みニューラルネットワーク(DCNN)は、変換中のオブジェクトを認識するという、印象的な堅牢性を示している。
そのような堅牢性を説明する仮説は、DCNNが画像が変換されたときに変化しない不変な神経表現を発達させるというものである。
本稿では, 変形に対する堅牢性を高めることを利用して, 不変なニューラル表現が出現する条件について検討する。
論文 参考訳(メタデータ) (2020-06-30T21:18:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。