論文の概要: Leveraging the Power of Data Augmentation for Transformer-based Tracking
- arxiv url: http://arxiv.org/abs/2309.08264v1
- Date: Fri, 15 Sep 2023 09:18:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-18 15:13:12.359457
- Title: Leveraging the Power of Data Augmentation for Transformer-based Tracking
- Title(参考訳): 変圧器追跡におけるデータ拡張のパワーの活用
- Authors: Jie Zhao, Johan Edstedt, Michael Felsberg, Dong Wang, Huchuan Lu
- Abstract要約: トラッキング用にカスタマイズされた2つのデータ拡張手法を提案する。
まず、動的探索半径機構と境界サンプルのシミュレーションにより、既存のランダムトリミングを最適化する。
第2に,背景干渉などの問題に対するモデルを可能にする,トークンレベルの機能混在強化戦略を提案する。
- 参考スコア(独自算出の注目度): 64.46371987827312
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to long-distance correlation and powerful pretrained models,
transformer-based methods have initiated a breakthrough in visual object
tracking performance. Previous works focus on designing effective architectures
suited for tracking, but ignore that data augmentation is equally crucial for
training a well-performing model. In this paper, we first explore the impact of
general data augmentations on transformer-based trackers via systematic
experiments, and reveal the limited effectiveness of these common strategies.
Motivated by experimental observations, we then propose two data augmentation
methods customized for tracking. First, we optimize existing random cropping
via a dynamic search radius mechanism and simulation for boundary samples.
Second, we propose a token-level feature mixing augmentation strategy, which
enables the model against challenges like background interference. Extensive
experiments on two transformer-based trackers and six benchmarks demonstrate
the effectiveness and data efficiency of our methods, especially under
challenging settings, like one-shot tracking and small image resolutions.
- Abstract(参考訳): 長距離相関と強力な事前学習モデルにより、トランスフォーマーベースの手法は視覚オブジェクト追跡性能のブレークスルーを開始した。
以前の作業では、トラッキングに適した効果的なアーキテクチャの設計に重点を置いていたが、データ拡張がパフォーマンスの高いモデルのトレーニングに等しく重要であることは無視している。
本稿では,まず,変圧器を用いたトラッカに対する一般データ拡張の効果を系統的実験により検討し,それらの共通戦略の有効性を明らかにした。
実験的な観測により,追跡用にカスタマイズされた2つのデータ拡張手法を提案する。
まず、動的探索半径機構と境界サンプルのシミュレーションにより、既存のランダムトリミングを最適化する。
第2に,背景干渉などの課題に対するモデルを可能にするトークンレベルの特徴混合強化戦略を提案する。
2つのトランスフォーマーベースのトラッカーと6つのベンチマークに関する広範囲な実験は、特にワンショットトラッキングや小さな画像解像度といった困難な設定下で、この手法の有効性とデータ効率を示している。
関連論文リスト
- A Simple Background Augmentation Method for Object Detection with Diffusion Model [53.32935683257045]
コンピュータビジョンでは、データの多様性の欠如がモデル性能を損なうことはよく知られている。
本稿では, 生成モデルの進歩を生かして, 単純かつ効果的なデータ拡張手法を提案する。
背景強化は、特にモデルの堅牢性と一般化能力を大幅に改善する。
論文 参考訳(メタデータ) (2024-08-01T07:40:00Z) - Simple In-place Data Augmentation for Surveillance Object Detection [2.3841361713768077]
本稿では,オブジェクト検出データセットに適した簡単な拡張手法を提案する。
提案手法では,オブジェクトをオリジナルと同じ位置に配置することで,その有効性を保証する。
論文 参考訳(メタデータ) (2024-04-17T10:20:16Z) - A Hybrid Model for Traffic Incident Detection based on Generative
Adversarial Networks and Transformer Model [0.0]
交通事故検出はインテリジェント交通システムにおいて不可欠である。
従来の研究では、検出の有効性は大規模なデータセットの取得に関わる課題に大きく影響されている。
これらの課題に対処するために,トランスフォーマと生成逆数ネットワーク(GAN)を組み合わせたハイブリッドモデルを提案する。
論文 参考訳(メタデータ) (2024-03-02T09:28:04Z) - Emergent Agentic Transformer from Chain of Hindsight Experience [96.56164427726203]
簡単なトランスフォーマーベースモデルが時間差と模倣学習に基づくアプローチの両方と競合することを示す。
単純なトランスフォーマーベースのモデルが時間差と模倣学習ベースのアプローチの両方で競合するのはこれが初めてである。
論文 参考訳(メタデータ) (2023-05-26T00:43:02Z) - Transformers in Single Object Tracking: An Experimental Survey [1.2526963688768458]
トランスフォーマーベースのトラッキングアプローチは、単一対象追跡の新しい時代を幕開けた。
我々は、CNN-Transformerベースのトラッカー、2ストリームフルトランスフォーマーベースのトラッカー、ワンストリームワンステージフルトランスフォーマーベースのトラッカーに分類することで、トランスフォーマートラッキングアプローチの詳細な文献分析を行う。
論文 参考訳(メタデータ) (2023-02-23T09:12:58Z) - Dyna-DepthFormer: Multi-frame Transformer for Self-Supervised Depth
Estimation in Dynamic Scenes [19.810725397641406]
シーン深度と3次元運動場を協調的に予測する新しいDyna-Depthformerフレームワークを提案する。
まず,多視点の相関を一連の自己・横断的層を通じて活用し,深度特徴表現の強化を図る。
第2に,動的物体の運動場をセマンティック・プレセプションを使わずに推定するワーピングに基づく運動ネットワークを提案する。
論文 参考訳(メタデータ) (2023-01-14T09:43:23Z) - Multi-dataset Training of Transformers for Robust Action Recognition [75.5695991766902]
動作認識のための複数のデータセットをうまく一般化することを目的として,ロバストな特徴表現の課題について検討する。
本稿では、情報損失と投影損失という2つの新しい損失項を設計した、新しいマルチデータセットトレーニングパラダイムであるMultiTrainを提案する。
本研究では,Kineetics-400,Kineetics-700,Moments-in-Time,Activitynet,Some-something-v2の5つの課題データセットに対して,本手法の有効性を検証する。
論文 参考訳(メタデータ) (2022-09-26T01:30:43Z) - Transforming Model Prediction for Tracking [109.08417327309937]
トランスフォーマーは、誘導バイアスの少ないグローバルな関係を捉え、より強力なターゲットモデルの予測を学ぶことができる。
提案したトラッカーをエンドツーエンドにトレーニングし、複数のトラッカーデータセットに関する総合的な実験を行うことで、その性能を検証する。
我々のトラッカーは3つのベンチマークで新しい技術状態を設定し、挑戦的なLaSOTデータセットで68.5%のAUCを達成した。
論文 参考訳(メタデータ) (2022-03-21T17:59:40Z) - Towards Data-Efficient Detection Transformers [77.43470797296906]
我々は、ほとんどの検出トランスフォーマーが、小さなデータセットで大きなパフォーマンス低下に悩まされていることを示す。
我々はデータ効率に影響を与える要因を、データ効率のRCNNから代表DETRへのステップバイステップ遷移によって実証的に分析する。
本稿では,よりリッチな監視とデータ効率向上を目的とした,シンプルながら効果的なラベル拡張手法を提案する。
論文 参考訳(メタデータ) (2022-03-17T17:56:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。