論文の概要: Rotation Equivariant Siamese Networks for Tracking
- arxiv url: http://arxiv.org/abs/2012.13078v1
- Date: Thu, 24 Dec 2020 03:06:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-25 08:18:19.766582
- Title: Rotation Equivariant Siamese Networks for Tracking
- Title(参考訳): 追従のための回転同変シームズネットワーク
- Authors: Deepak K. Gupta, Devanshu Arya and Efstratios Gavves
- Abstract要約: オブジェクトトラッキングのための回転等価なSiameseネットワーク(RE-SiamNets)を提案する。
SiamNetは、監視されていない方法でオブジェクトのオリエンテーションの変化を推定します。
RE-SiamNetは、回転の問題を非常にうまく処理し、通常のものよりパフォーマンスが高いことを示しています。
- 参考スコア(独自算出の注目度): 26.8787636300794
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Rotation is among the long prevailing, yet still unresolved, hard challenges
encountered in visual object tracking. The existing deep learning-based
tracking algorithms use regular CNNs that are inherently translation
equivariant, but not designed to tackle rotations. In this paper, we first
demonstrate that in the presence of rotation instances in videos, the
performance of existing trackers is severely affected. To circumvent the
adverse effect of rotations, we present rotation-equivariant Siamese networks
(RE-SiamNets), built through the use of group-equivariant convolutional layers
comprising steerable filters. SiamNets allow estimating the change in
orientation of the object in an unsupervised manner, thereby facilitating its
use in relative 2D pose estimation as well. We further show that this change in
orientation can be used to impose an additional motion constraint in Siamese
tracking through imposing restriction on the change in orientation between two
consecutive frames. For benchmarking, we present Rotation Tracking Benchmark
(RTB), a dataset comprising a set of videos with rotation instances. Through
experiments on two popular Siamese architectures, we show that RE-SiamNets
handle the problem of rotation very well and out-perform their regular
counterparts. Further, RE-SiamNets can accurately estimate the relative change
in pose of the target in an unsupervised fashion, namely the in-plane rotation
the target has sustained with respect to the reference frame.
- Abstract(参考訳): 回転は、視覚的オブジェクト追跡において、長く普及しているが未解決であり、困難な課題である。
既存のディープラーニングベースのトラッキングアルゴリズムは、本質的に翻訳同変であるがローテーションに取り組むように設計されていない通常のCNNを使用している。
本稿では,ビデオ中のローテーションインスタンスの存在下では,既存のトラッカーの性能が著しく影響を受けることを最初に示す。
回転の悪影響を回避するため, ステアブルフィルタからなる群等価畳み込み層を用いて構築した回転等価シムズネットワーク(RE-SiamNets)を提案する。
SiamNetsは、オブジェクトの向きの変化を教師なしの方法で推定できるため、相対的な2Dポーズ推定にも使用することができる。
さらに,この方向変化は,連続する2フレーム間の方向変化の制限を課すことで,シャムの追従に付加的な動き制約を課すことができることを示した。
ベンチマークでは、ローテーションインスタンスを含むビデオの集合からなるデータセットであるローテーショントラッキングベンチマーク(rtb)を提案する。
2つの有名なシームズアーキテクチャの実験を通して、RE-SiamNetが回転の問題をうまく処理し、通常のアーキテクチャよりも優れていたことを示す。
さらに、再シアムネットは、基準フレームに対して目標が保持した面内回転を教師なしの方法で、目標の姿勢の相対的変化を正確に推定することができる。
関連論文リスト
- SBDet: A Symmetry-Breaking Object Detector via Relaxed Rotation-Equivariance [26.05910177212846]
Group Equivariant Convolution(GConv)は、モデルに視覚データに隠された対称性を探索させ、パフォーマンスを向上させる。
従来のGConv法は群空間の厳密な操作規則によって制限されており、対称性・ブレーキングや非剛体変換への適応が困難である。
本稿では,Relaxed Rotation-Equivariant Network(R2Net)をバックボーンとして提案し,その上に構築された2次元オブジェクト検出のためのSBDet(Symmetry-Breaking Object Detector)を開発した。
論文 参考訳(メタデータ) (2024-08-21T16:32:03Z) - PARE-Net: Position-Aware Rotation-Equivariant Networks for Robust Point Cloud Registration [8.668461141536383]
回転不変の特徴を学習することは、ポイントクラウド登録の基本的な要件である。
既存の手法では、回転に敏感なネットワークを用いて特徴を抽出し、回転拡大を用いて近似不変写像を無作為に学習する。
高速で軽量でロバストな登録のための位置認識型回転同変ネットワークを提案する。
論文 参考訳(メタデータ) (2024-07-14T10:26:38Z) - VI-Net: Boosting Category-level 6D Object Pose Estimation via Learning
Decoupled Rotations on the Spherical Representations [55.25238503204253]
作業を容易にするために,VI-Netと呼ばれる新しい回転推定ネットワークを提案する。
球面信号を処理するために、SPAtial Spherical Convolutionの新たな設計に基づいて、球面特徴ピラミッドネットワークを構築する。
ベンチマークデータセットの実験により,提案手法の有効性が確認された。
論文 参考訳(メタデータ) (2023-08-19T05:47:53Z) - Rotation-Invariant Transformer for Point Cloud Matching [42.5714375149213]
我々は,回転不変変換器であるRoITrを導入し,点クラウドマッチングタスクにおけるポーズ変動に対処する。
本稿では,自己認識機構によって学習した,回転不変なクロスフレーム空間認識を備えたグローバルトランスフォーマーを提案する。
RoITrは、Inlier RatioとRegistration Recallの点で、既存のメソッドを少なくとも13と5のパーセンテージで上回っている。
論文 参考訳(メタデータ) (2023-03-14T20:55:27Z) - CRIN: Rotation-Invariant Point Cloud Analysis and Rotation Estimation
via Centrifugal Reference Frame [60.24797081117877]
CRIN,すなわち遠心回転不変ネットワークを提案する。
CRINは点の座標を直接入力として取り、局所点を回転不変表現に変換する。
点に基づく3次元回転の連続分布を導入する。
論文 参考訳(メタデータ) (2023-03-06T13:14:10Z) - RAUM-VO: Rotational Adjusted Unsupervised Monocular Visual Odometry [0.0]
本稿では,フレーム間動き推定のためのモデルフリーなエピポーラ制約に基づくRAUM-VOを提案する。
RAUM-VOは、KITTIデータセット上の他の教師なしポーズネットワークと比較してかなり精度が向上している。
論文 参考訳(メタデータ) (2022-03-14T15:03:24Z) - On the Robustness of Multi-View Rotation Averaging [77.09542018140823]
解法に$epsilon$-cycle整合項を導入する。
重み低減による誤測定の負の効果を暗黙的に抑制する。
実験の結果,提案手法は様々なベンチマークで芸術の状況よりも優れていた。
論文 参考訳(メタデータ) (2021-02-09T05:47:37Z) - RSINet: Rotation-Scale Invariant Network for Online Visual Tracking [7.186849714896344]
ほとんどのネットワークベースのトラッカーは、モデル更新なしで追跡処理を行い、ターゲット固有の変動を適応的に学習することができない。
本稿では、上記の問題に対処する新しい回転スケール不変ネットワーク(RSINet)を提案する。
我々のRSINetトラッカーは、ターゲット・ディトラクタ識別部とローテーション・スケール推定部から構成されており、ローテーションとスケールの知識は、エンドツーエンドでマルチタスク学習法によって明示的に学習することができる。
追加で、追跡モデルは適応的に最適化され、時空間エネルギー制御が更新され、モデル安定性と信頼性が保証され、高いトラッキングが保証される。
論文 参考訳(メタデータ) (2020-11-18T08:19:14Z) - Attention and Encoder-Decoder based models for transforming articulatory
movements at different speaking rates [60.02121449986413]
LSTMを用いたエンコーダデコーダアーキテクチャを提案する。
変換された調音運動の振幅を原音と異なる速度で解析する。
AstNetは,既存の変換手法よりも音節運動の持続時間と範囲をモデル化できる。
論文 参考訳(メタデータ) (2020-06-04T19:33:26Z) - A Rotation-Invariant Framework for Deep Point Cloud Analysis [132.91915346157018]
ネットワーク入力時に一般的な3次元カルト座標を置き換えるために,新しい低レベル純粋回転不変表現を導入する。
また,これらの表現を特徴に組み込むネットワークアーキテクチャを提案し,点とその近傍の局所的関係とグローバルな形状構造を符号化する。
本手法は, 形状分類, 部分分割, 形状検索を含む多点雲解析タスクにおいて評価する。
論文 参考訳(メタデータ) (2020-03-16T14:04:45Z) - Quaternion Equivariant Capsule Networks for 3D Point Clouds [58.566467950463306]
本稿では,3次元回転と翻訳に同値な点雲を処理するための3次元カプセルモジュールを提案する。
カプセル間の動的ルーティングをよく知られたWeiszfeldアルゴリズムに接続する。
オペレーターに基づいて、ポーズから幾何学をアンタングルするカプセルネットワークを構築します。
論文 参考訳(メタデータ) (2019-12-27T13:51:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。