論文の概要: Learning Rotation-Equivariant Features for Visual Correspondence
- arxiv url: http://arxiv.org/abs/2303.15472v1
- Date: Sat, 25 Mar 2023 13:42:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-29 17:55:26.225780
- Title: Learning Rotation-Equivariant Features for Visual Correspondence
- Title(参考訳): 視覚対応のための回転同変特徴の学習
- Authors: Jongmin Lee, Byungjin Kim, Seungwook Kim, Minsu Cho
- Abstract要約: 本稿では,識別的回転不変記述子を抽出する自己教師型学習フレームワークを提案する。
グループ同変CNNを利用することで、回転同変の特徴とその配向を効果的に学習する。
本手法は,既存の回転不変ディスクリプタ間で,回転の異なる状態のマッチング精度を示す。
- 参考スコア(独自算出の注目度): 41.79256655501003
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Extracting discriminative local features that are invariant to imaging
variations is an integral part of establishing correspondences between images.
In this work, we introduce a self-supervised learning framework to extract
discriminative rotation-invariant descriptors using group-equivariant CNNs.
Thanks to employing group-equivariant CNNs, our method effectively learns to
obtain rotation-equivariant features and their orientations explicitly, without
having to perform sophisticated data augmentations. The resultant features and
their orientations are further processed by group aligning, a novel invariant
mapping technique that shifts the group-equivariant features by their
orientations along the group dimension. Our group aligning technique achieves
rotation-invariance without any collapse of the group dimension and thus
eschews loss of discriminability. The proposed method is trained end-to-end in
a self-supervised manner, where we use an orientation alignment loss for the
orientation estimation and a contrastive descriptor loss for robust local
descriptors to geometric/photometric variations. Our method demonstrates
state-of-the-art matching accuracy among existing rotation-invariant
descriptors under varying rotation and also shows competitive results when
transferred to the task of keypoint matching and camera pose estimation.
- Abstract(参考訳): 画像変化に不変な識別的局所特徴の抽出は、画像間の対応を確立する上で不可欠な部分である。
本研究では,グループ同変CNNを用いて識別的回転不変記述子を抽出する自己教師型学習フレームワークを提案する。
グループ同変CNNを用いることで, 高精度なデータ拡張を行うことなく, 回転同変の特徴とその向きを明確に把握する。
結果として得られる特徴とその配向は群整列によってさらに処理され、群次元に沿ってその配向によって群同変特徴をシフトする新しい不変写像技術である。
群整列法は群次元の崩壊を伴わずに回転不変性を達成し,判別可能性の喪失を招いた。
提案手法は, 向き推定に配向アライメント損失, およびロバストな局所記述子を幾何的・測光的変動に向けたコントラッシブな記述子損失を用いて, 自己教師方式でエンドツーエンドに訓練する。
提案手法は,既存の回転不変ディスクリプタの回転の異なる状態のマッチング精度を示すとともに,キーポイントマッチングとカメラポーズ推定のタスクに移行した際の競合結果を示す。
関連論文リスト
- Current Symmetry Group Equivariant Convolution Frameworks for Representation Learning [5.802794302956837]
ユークリッドの深層学習はしばしば、表現空間が不規則で複雑な位相で湾曲した実世界の信号に対処するのに不十分である。
我々は、対称性群同変深層学習モデルの重要性と、グラフや3次元形状、非ユークリッド空間における畳み込みのような操作の実現に焦点を当てる。
論文 参考訳(メタデータ) (2024-09-11T15:07:18Z) - Few-Shot Rotation-Invariant Aerial Image Semantic Segmentation [53.47160182465171]
空中画像のセグメンテーションは、クエリーされた空中画像のオブジェクトを正確に解析する難しい作業である。
著者らは,FRINet(FriNet)の新規な数発回転不変空中セマンティックセマンティックセグメンテーションネットワークを提案する。
実験により、FRINetは数発の空中セマンティックセグメンテーションベンチマークで最先端の性能を達成することが示された。
論文 参考訳(メタデータ) (2023-05-29T09:28:34Z) - 4D Panoptic Segmentation as Invariant and Equivariant Field Prediction [48.57732508537554]
我々は4次元パノプティカルセグメンテーションのための回転同変ニューラルネットワークを開発した。
その結果,同種でないモデルに比べて計算コストが低いモデルの方が精度が高いことがわかった。
本手法は,新しい最先端性能を設定し,セマンティックKITTITI 4Dパネルにおいて第1位を獲得している。
論文 参考訳(メタデータ) (2023-03-28T00:20:37Z) - Self-Supervised Learning for Group Equivariant Neural Networks [75.62232699377877]
群同変ニューラルネットワーク(英: Group equivariant Neural Network)は、入力の変換で通勤する構造に制限されたモデルである。
自己教師型タスクには、同変プリテキストラベルと異変コントラスト損失という2つの概念を提案する。
標準画像認識ベンチマークの実験では、同変ニューラルネットワークが提案された自己教師型タスクを利用することを示した。
論文 参考訳(メタデータ) (2023-03-08T08:11:26Z) - Unsupervised Learning of Group Invariant and Equivariant Representations [10.252723257176566]
グループ不変および同変表現学習を教師なし深層学習の分野に拡張する。
本稿では,エンコーダ・デコーダ・フレームワークに基づく一般学習戦略を提案する。このフレームワークでは,潜在表現を不変項と同変群アクション成分で分離する。
鍵となる考え方は、ネットワークがグループ不変表現にデータをエンコードしてデコードすることを学習し、さらに適切なグループ動作を予測して、入力と出力のポーズを調整して再構成タスクを解決することである。
論文 参考訳(メタデータ) (2022-02-15T16:44:21Z) - Rotation-Invariant Point Convolution With Multiple Equivariant
Alignments [1.0152838128195467]
回転同変アライメントを用いることで、任意の畳み込み層を回転不変にすることができることを示す。
このコア層では、オブジェクト分類とセマンティックセグメンテーションの両方における最先端の結果を改善する回転不変アーキテクチャを設計します。
論文 参考訳(メタデータ) (2020-12-07T20:47:46Z) - Invariant Deep Compressible Covariance Pooling for Aerial Scene
Categorization [80.55951673479237]
本研究では,空気シーン分類におけるニュアンス変動を解決するために,新しい不変な深部圧縮性共分散プール (IDCCP) を提案する。
本研究では,公開空間画像データセットに関する広範な実験を行い,最先端の手法と比較して,この手法の優位性を実証する。
論文 参考訳(メタデータ) (2020-11-11T11:13:07Z) - A Rotation-Invariant Framework for Deep Point Cloud Analysis [132.91915346157018]
ネットワーク入力時に一般的な3次元カルト座標を置き換えるために,新しい低レベル純粋回転不変表現を導入する。
また,これらの表現を特徴に組み込むネットワークアーキテクチャを提案し,点とその近傍の局所的関係とグローバルな形状構造を符号化する。
本手法は, 形状分類, 部分分割, 形状検索を含む多点雲解析タスクにおいて評価する。
論文 参考訳(メタデータ) (2020-03-16T14:04:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。