論文の概要: Steerers: A framework for rotation equivariant keypoint descriptors
- arxiv url: http://arxiv.org/abs/2312.02152v2
- Date: Tue, 2 Apr 2024 09:40:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-04 12:03:39.738400
- Title: Steerers: A framework for rotation equivariant keypoint descriptors
- Title(参考訳): Steerers: 回転同変キーポイント記述子のためのフレームワーク
- Authors: Georg Bökman, Johan Edstedt, Michael Felsberg, Fredrik Kahl,
- Abstract要約: 大きな視点の変化に対して差別的で一致可能なキーポイント記述は、3次元再構成に不可欠である。
入力画像の回転を符号化する記述空間における線形変換を学習する。
回転不変画像マッチングベンチマークであるAIMSとRoto-360の最先端結果を得た。
- 参考スコア(独自算出の注目度): 26.31402935889126
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Image keypoint descriptions that are discriminative and matchable over large changes in viewpoint are vital for 3D reconstruction. However, descriptions output by learned descriptors are typically not robust to camera rotation. While they can be made more robust by, e.g., data augmentation, this degrades performance on upright images. Another approach is test-time augmentation, which incurs a significant increase in runtime. Instead, we learn a linear transform in description space that encodes rotations of the input image. We call this linear transform a steerer since it allows us to transform the descriptions as if the image was rotated. From representation theory, we know all possible steerers for the rotation group. Steerers can be optimized (A) given a fixed descriptor, (B) jointly with a descriptor or (C) we can optimize a descriptor given a fixed steerer. We perform experiments in these three settings and obtain state-of-the-art results on the rotation invariant image matching benchmarks AIMS and Roto-360. We publish code and model weights at https://github.com/georg-bn/rotation-steerers.
- Abstract(参考訳): 画像のキーポイント記述は、大きな視点の変化に対して識別可能であり、一致可能であるが、3次元再構成には不可欠である。
しかし、学習した記述子によって出力される記述は通常、カメラの回転に対して堅牢ではない。
データの増大などにより、より堅牢にすることができるが、これはアップライトイメージのパフォーマンスを低下させる。
もう1つのアプローチは、テスト時間の増大であり、ランタイムが大幅に増加する。
代わりに、入力画像の回転を符号化する記述空間の線形変換を学ぶ。
この線形変換は、画像が回転しているかのように記述を変換できるので、ステアラーと呼ぶ。
表現論から、回転群に対するすべての可能なステアラーが分かる。
ステアラーは(A)固定された記述子、(B)固定された記述子、または(C)固定された記述子を最適化することができる。
我々はこれらの3つの設定で実験を行い、回転不変画像マッチングベンチマークであるAIMSとRoto-360の最先端結果を得た。
コードとモデルの重み付けはhttps://github.com/georg-bn/rotation-steerers.orgで公開しています。
関連論文リスト
- Affine steerers for structured keypoint description [26.31402935889126]
画像平面の局所的なアフィン変換にほぼ同値な深層学習に基づくキーポイント記述子を訓練する方法を提案する。
画像マッチングにこの制御を用いることの可能性を示す。
論文 参考訳(メタデータ) (2024-08-26T11:22:52Z) - Learning with 3D rotations, a hitchhiker's guide to SO(3) [17.802455837461125]
本論文は、回転表現によるサーベイおよびガイドとして機能する。
回転に基づく学習からの洞察を集約することにより、回転表現を用いた学習機能の包括的概要を提供する。
論文 参考訳(メタデータ) (2024-04-17T20:37:29Z) - Rotation Invariant Transformer for Recognizing Object in UAVs [66.1564328237299]
本稿では,UAVから興味の対象を認識するための回転不変視変換器(RotTrans)を提案する。
RotTrans は最先端の mAP と Rank1 よりも5.9%、かつ 4.8% 高い最先端の 最先端の 最先端の 最先端の 技術 をはるかに上回っている。
我々のソリューションは、マルチモーダルビデオ推論・アナライジングコンペティションにおいて、UAVベースの人物認識トラックで第一位を獲得しました。
論文 参考訳(メタデータ) (2023-11-05T03:55:08Z) - Adaptive Rotated Convolution for Rotated Object Detection [96.94590550217718]
本稿では、回転物体検出問題に対処するために、適応回転変換(ARC)モジュールを提案する。
ARCモジュールでは、コンボリューションカーネルが適応的に回転し、異なる画像に異なる向きのオブジェクト特徴を抽出する。
提案手法は,81.77%mAPのDOTAデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2023-03-14T11:53:12Z) - PaRot: Patch-Wise Rotation-Invariant Network via Feature Disentanglement
and Pose Restoration [16.75367717130046]
最先端モデルは回転に対して堅牢ではなく、実際の応用に先立って未知のままである。
Patch-wise Rotation-invariant Network (PaRot)を導入する。
本モジュールは高品質な回転ロバスト特性を抽出し,提案した軽量モデルにより競争結果が得られた。
論文 参考訳(メタデータ) (2023-02-06T02:13:51Z) - Rethinking Rotation Invariance with Point Cloud Registration [18.829454172955202]
本稿では, 回転不変形状符号化, 整列化機能統合, 深部特徴登録の3段階を通した回転不変性学習のための効果的なフレームワークを提案する。
3次元形状分類,部分分割,検索タスクの実験結果から,本研究の可能性が確認された。
論文 参考訳(メタデータ) (2022-12-31T08:17:09Z) - Category-Level 6D Object Pose Estimation with Flexible Vector-Based
Rotation Representation [51.67545893892129]
モノクロRGB-D画像からカテゴリレベルの6次元ポーズとサイズ推定のための新しい3次元グラフ畳み込みに基づくパイプラインを提案する。
まず,3次元グラフ畳み込みを用いた向き対応オートエンコーダの設計を行った。
そして, 回転情報を潜在特徴から効率的に復号化するために, フレキシブルなベクトルベースデコンポーザブルな回転表現を設計する。
論文 参考訳(メタデータ) (2022-12-09T02:13:43Z) - Orthonormal Convolutions for the Rotation Based Iterative
Gaussianization [64.44661342486434]
本稿では、画像ガウス化を可能にする回転型反復ガウス化RBIGの拡張について詳述する。
RBIGの回転は主成分分析や独立成分分析に基づくため、画像では小さな画像パッチや孤立画素に制限されている。
emphConvolutional RBIG:この問題を緩和する拡張として,RBIGの回転が畳み込みであることを示す。
論文 参考訳(メタデータ) (2022-06-08T12:56:34Z) - Adjoint Rigid Transform Network: Task-conditioned Alignment of 3D Shapes [86.2129580231191]
Adjoint Rigid Transform (ART) Networkは、さまざまな3Dネットワークと統合可能なニューラルネットワークモジュールである。
ARTは入力の形状を学習した標準方向に回転させることを学び、多くのタスクに欠かせない。
さらなる研究のために、コードと事前訓練されたモデルをリリースします。
論文 参考訳(メタデータ) (2021-02-01T20:58:45Z) - Learning Feature Descriptors using Camera Pose Supervision [101.56783569070221]
本稿では,画像間の相対的なカメラポーズからのみ特徴記述子を学習可能な,弱教師付きフレームワークを提案する。
ピクセルレベルの地上通信はもはや不要なので、我々のフレームワークは、より大きく、より多様なデータセットのトレーニングを、より良い、偏見のない記述子に開放する。
論文 参考訳(メタデータ) (2020-04-28T06:35:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。