論文の概要: Scale Equivariance Improves Siamese Tracking
- arxiv url: http://arxiv.org/abs/2007.09115v2
- Date: Fri, 6 Nov 2020 12:29:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 14:25:23.830503
- Title: Scale Equivariance Improves Siamese Tracking
- Title(参考訳): スケール平等がシームズトラッキングを改善する
- Authors: Ivan Sosnovik, Artem Moskalev, Arnold Smeulders
- Abstract要約: シームズトラッカーは、トラッキングをフレーム内のテンプレートと候補領域間の類似度推定に変換する。
非翻訳同変アーキテクチャは、トレーニング中に位置バイアスを引き起こす。
提案するSE-SiamFCは,レシピに従って構築されたSiamFCのスケール・等価な変種である。
- 参考スコア(独自算出の注目度): 1.7188280334580197
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Siamese trackers turn tracking into similarity estimation between a template
and the candidate regions in the frame. Mathematically, one of the key
ingredients of success of the similarity function is translation equivariance.
Non-translation-equivariant architectures induce a positional bias during
training, so the location of the target will be hard to recover from the
feature space. In real life scenarios, objects undergoe various transformations
other than translation, such as rotation or scaling. Unless the model has an
internal mechanism to handle them, the similarity may degrade. In this paper,
we focus on scaling and we aim to equip the Siamese network with additional
built-in scale equivariance to capture the natural variations of the target a
priori. We develop the theory for scale-equivariant Siamese trackers, and
provide a simple recipe for how to make a wide range of existing trackers
scale-equivariant. We present SE-SiamFC, a scale-equivariant variant of SiamFC
built according to the recipe. We conduct experiments on OTB and VOT benchmarks
and on the synthetically generated T-MNIST and S-MNIST datasets. We demonstrate
that a built-in additional scale equivariance is useful for visual object
tracking.
- Abstract(参考訳): siamese trackersは、トラッキングをテンプレートとフレーム内の候補領域の類似度推定に変換する。
数学的には、類似関数の成功の鍵となる要素の1つは翻訳同値である。
非翻訳同変アーキテクチャはトレーニング中に位置バイアスを生じさせるため、ターゲットの位置を特徴空間から回復することは困難である。
現実のシナリオでは、オブジェクトは回転やスケーリングなど、トランスフォーメーション以外のさまざまな変換を受けます。
モデルがそれらを扱う内部メカニズムを持っていなければ、類似性は低下する可能性がある。
本稿では,スケーリングに焦点をあて,対象の自然変動を捉えるために,追加の組込みスケール等式をシメセネットワークに装備することを目的としている。
我々は,スケール同変シアームトラッカーの理論を開発し,既存のトラッカーをスケール同変にするための簡単なレシピを提供する。
提案するSE-SiamFCは,レシピに従って構築されたSiamFCのスケール・等価な変種である。
OTBおよびVOTベンチマークおよび合成合成T-MNISTおよびS-MNISTデータセット上で実験を行う。
付加的なスケールの等式が視覚的物体追跡に有用であることを示す。
関連論文リスト
- NormNet: Scale Normalization for 6D Pose Estimation in Stacked Scenarios [4.515332570030772]
本稿では,スタック化シナリオにおける異なるスケールオブジェクトのための新しい6DoF OPEネットワーク(NormNet)を提案する。
スタック化されたシナリオのすべてのオブジェクトは、セマンティックセグメンテーションとアフィン変換によって同じスケールに正規化されます。
最後に、6Dのポーズを復元するために、共有ポーズ推定器に入力される。
論文 参考訳(メタデータ) (2023-11-15T12:02:57Z) - Equivariant Similarity for Vision-Language Foundation Models [134.77524524140168]
本研究は、主要な訓練目的だけでなく、下流タスクをサポートするためのコアデリバリであるマルチモーダル類似性関数に焦点を当てる。
一致した2組のトレーニングペアから効率よく計算できる正規化損失であるEqSimを提案する。
既存の評価セットと比較すると、EqBenは"視覚的最小限の変化"に最初に焦点を当てている。
論文 参考訳(メタデータ) (2023-03-25T13:22:56Z) - Scale Equivariant U-Net [0.0]
本稿では、スケールと翻訳の半群にほぼ同値なU-Netであるスケール等変U-Net(SEU-Net)を紹介する。
提案したSEU-Netは, セルセグメンテーションのためのOxford Pet IIITとDIC-C2DH-HeLaデータセットのセグメンテーションのために訓練されている。
U-Net がスケールジッタリングで訓練された場合でも、U-Net と比較して、目に見えないスケールへの一般化基準が劇的に改善される。
論文 参考訳(メタデータ) (2022-10-10T09:19:40Z) - The Lie Derivative for Measuring Learned Equivariance [84.29366874540217]
我々は、CNN、トランスフォーマー、ミキサーアーキテクチャにまたがる数百の事前訓練されたモデルの同値性について検討する。
その結果,不等式違反の多くは,不等式などのユビキタスネットワーク層における空間エイリアスに関連付けられることがわかった。
例えば、トランスはトレーニング後の畳み込みニューラルネットワークよりも同種である。
論文 参考訳(メタデータ) (2022-10-06T15:20:55Z) - Equivariance versus Augmentation for Spherical Images [0.7388859384645262]
球面画像に適用した畳み込みニューラルネットワーク(CNN)における回転同値の役割を解析する。
我々は、S2CNNとして知られるグループ同変ネットワークと、データ増大量で訓練された標準非同変CNNの性能を比較した。
論文 参考訳(メタデータ) (2022-02-08T16:49:30Z) - Improving the Sample-Complexity of Deep Classification Networks with
Invariant Integration [77.99182201815763]
変換によるクラス内分散に関する事前知識を活用することは、ディープニューラルネットワークのサンプル複雑性を改善するための強力な方法である。
そこで本研究では,アプリケーションの複雑な問題に対処するために,プルーニング法に基づく新しい単項選択アルゴリズムを提案する。
本稿では,Rotated-MNIST,SVHN,CIFAR-10データセットにおけるサンプルの複雑さの改善について述べる。
論文 参考訳(メタデータ) (2022-02-08T16:16:11Z) - Frame Averaging for Invariant and Equivariant Network Design [50.87023773850824]
フレーム平均化(FA)は、既知の(バックボーン)アーキテクチャを新しい対称性タイプに不変あるいは同変に適応するためのフレームワークである。
FAモデルが最大表現力を持つことを示す。
我々は,新しいユニバーサルグラフニューラルネット(GNN),ユニバーサルユークリッド運動不変点クラウドネットワーク,およびユークリッド運動不変メッセージパッシング(MP)GNNを提案する。
論文 参考訳(メタデータ) (2021-10-07T11:05:23Z) - Group Equivariant Subsampling [60.53371517247382]
サブサンプリングは、プールやストライド畳み込みの形で畳み込みニューラルネットワーク(CNN)で使用される。
まず、正確な翻訳同変CNNを構築するために使用できる翻訳同変サブサンプリング/アップサンプリング層を導入する。
次に、これらの層を一般群への変換を超えて一般化し、したがって群同変部分サンプリング/アップサンプリングを提案する。
論文 参考訳(メタデータ) (2021-06-10T16:14:00Z) - Improving Few-shot Learning by Spatially-aware Matching and
CrossTransformer [116.46533207849619]
数ショット学習シナリオにおけるスケールと位置ミスマッチの影響について検討する。
本稿では,複数のスケールや場所のマッチングを効果的に行うための,空間認識型マッチング手法を提案する。
論文 参考訳(メタデータ) (2020-01-06T14:10:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。