論文の概要: Recursive Least-Squares Estimator-Aided Online Learning for Visual
Tracking
- arxiv url: http://arxiv.org/abs/2112.14016v1
- Date: Tue, 28 Dec 2021 06:51:18 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-30 15:26:44.360838
- Title: Recursive Least-Squares Estimator-Aided Online Learning for Visual
Tracking
- Title(参考訳): 視覚追跡のための再帰的最小二乗推定支援オンライン学習
- Authors: Jin Gao, Yan Lu, Xiaojuan Qi, Yutong Kou, Bing Li, Liang Li, Shan Yu
and Weiming Hu
- Abstract要約: オフライン学習を必要とせず、簡単な効果的なオンライン学習手法を提案する。
これは、モデルが以前見たオブジェクトに関する知識を記憶するための、内蔵されたメモリ保持メカニズムを可能にする。
我々は、RT-MDNetにおける多層パーセプトロンと、DiMPにおける畳み込みニューラルネットワークの追跡のためのオンライン学習ファミリーにおける2つのネットワークに基づくアプローチを評価する。
- 参考スコア(独自算出の注目度): 58.14267480293575
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tracking visual objects from a single initial exemplar in the testing phase
has been broadly cast as a one-/few-shot problem, i.e., one-shot learning for
initial adaptation and few-shot learning for online adaptation. The recent
few-shot online adaptation methods incorporate the prior knowledge from large
amounts of annotated training data via complex meta-learning optimization in
the offline phase. This helps the online deep trackers to achieve fast
adaptation and reduce overfitting risk in tracking. In this paper, we propose a
simple yet effective recursive least-squares estimator-aided online learning
approach for few-shot online adaptation without requiring offline training. It
allows an in-built memory retention mechanism for the model to remember the
knowledge about the object seen before, and thus the seen data can be safely
removed from training. This also bears certain similarities to the emerging
continual learning field in preventing catastrophic forgetting. This mechanism
enables us to unveil the power of modern online deep trackers without incurring
too much extra computational cost. We evaluate our approach based on two
networks in the online learning families for tracking, i.e., multi-layer
perceptrons in RT-MDNet and convolutional neural networks in DiMP. The
consistent improvements on several challenging tracking benchmarks demonstrate
its effectiveness and efficiency.
- Abstract(参考訳): テストフェーズで最初の1つの例から視覚オブジェクトを追跡することは、1/2ショットの問題、すなわち初期適応のためのワンショット学習とオンライン適応のためのマイナショット学習として広く使われてきた。
最近の数発のオンライン適応手法では、オフラインフェーズにおける複雑なメタ学習最適化を通じて、大量の注釈付きトレーニングデータから事前知識を取り入れている。
これにより、オンラインのディープトラッカーは、迅速に適応し、追跡の過度なリスクを軽減することができる。
本稿では,オフライン学習を必要とせず,簡易かつ効果的な再帰的最小二乗推定支援オンライン学習手法を提案する。
これにより、モデルが以前に見たオブジェクトに関する知識を記憶するための内蔵メモリ保持メカニズムが実現され、見てきたデータがトレーニングから安全に削除される。
これはまた、破滅的な忘れ込みを防ぐための継続的な学習分野とある種の類似性を持っている。
このメカニズムにより、計算コストを余分に必要とせずに、現代のオンラインディープトラッカーのパワーを明らかにできます。
本手法は,rt-mdnetのマルチ層パーセプトロンとdimpの畳み込みニューラルネットワークを追跡するために,オンライン学習ファミリの2つのネットワークに基づいて評価する。
いくつかの挑戦的トラッキングベンチマークにおける一貫した改善は、その効果と効率を示している。
関連論文リスト
- Meta-Learning with Versatile Loss Geometries for Fast Adaptation Using
Mirror Descent [44.56938629818211]
メタ学習における根本的な課題は、タスク固有のモデルをトレーニングするために、抽出したモデルを迅速に“適応”する方法である。
既存のアプローチは、タスク毎のトレーニングプロセスの収束性を高めるプリコンディショナーを使用して、この課題に対処する。
この寄与は非線形ミラーマップを学習することでこの制限に対処し、多角距離メートル法を誘導する。
論文 参考訳(メタデータ) (2023-12-20T23:45:06Z) - Small Dataset, Big Gains: Enhancing Reinforcement Learning by Offline
Pre-Training with Model Based Augmentation [59.899714450049494]
オフラインの事前トレーニングは、準最適ポリシーを生成し、オンライン強化学習のパフォーマンスを低下させる可能性がある。
本稿では,オフライン強化学習による事前学習のメリットを最大化し,有効となるために必要なデータの規模を削減するためのモデルベースデータ拡張戦略を提案する。
論文 参考訳(メタデータ) (2023-12-15T14:49:41Z) - Backdoor Attack Detection in Computer Vision by Applying Matrix
Factorization on the Weights of Deep Networks [6.44397009982949]
本稿では,事前訓練したDNNの重みから特徴を抽出するバックドア検出手法を提案する。
他の検出技術と比較して、これはトレーニングデータを必要としないなど、多くのメリットがある。
提案手法は, 競合するアルゴリズムよりも効率性が高く, より正確であり, 深層学習とAIの安全な適用を確実にするのに役立つ。
論文 参考訳(メタデータ) (2022-12-15T20:20:18Z) - Slimmable Networks for Contrastive Self-supervised Learning [69.9454691873866]
自己教師付き学習は、大規模なモデルを事前訓練する上で大きな進歩を遂げるが、小さなモデルでは苦労する。
追加の教師を必要とせず、訓練済みの小型モデルを得るための1段階のソリューションも導入する。
スリム化可能なネットワークは、完全なネットワークと、様々なネットワークを得るために一度にトレーニングできるいくつかの重み共有サブネットワークから構成される。
論文 参考訳(メタデータ) (2022-09-30T15:15:05Z) - Online Convolutional Re-parameterization [51.97831675242173]
2段階のパイプラインであるオンライン畳み込み再パラメータ化(OREPA)は、複雑なトレーニング時間ブロックを単一の畳み込みに絞ることで、巨大なトレーニングオーバーヘッドを低減することを目的としている。
最先端のre-paramモデルと比較して、OREPAはトレーニング時間のメモリコストを約70%削減し、トレーニング速度を約2倍向上させることができる。
また、オブジェクト検出とセマンティックセグメンテーションの実験を行い、下流タスクに一貫した改善を示す。
論文 参考訳(メタデータ) (2022-04-02T09:50:19Z) - Online Continual Learning with Natural Distribution Shifts: An Empirical
Study with Visual Data [101.6195176510611]
オンライン」連続学習は、情報保持とオンライン学習の有効性の両方を評価することができる。
オンライン連続学習では、入力される各小さなデータをまずテストに使用し、次にトレーニングセットに追加し、真にオンラインにします。
本稿では,大規模かつ自然な分布変化を示すオンライン連続視覚学習のための新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2021-08-20T06:17:20Z) - Learning Neural Network Subspaces [74.44457651546728]
近年の観測は,ニューラルネットワーク最適化の展望の理解を深めている。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
論文 参考訳(メタデータ) (2021-02-20T23:26:58Z) - Data-efficient Weakly-supervised Learning for On-line Object Detection
under Domain Shift in Robotics [24.878465999976594]
文献では、Deep Convolutional Neural Networks (DCNNs)に基づく多数のオブジェクト検出方法が提案されている。
これらの手法はロボティクスに重要な制限がある:オフラインデータのみに学習するとバイアスが発生し、新しいタスクへの適応を防ぐことができる。
本研究では,弱い教師付き学習がこれらの問題にどのように対処できるかを検討する。
論文 参考訳(メタデータ) (2020-12-28T16:36:11Z) - Retrospective Loss: Looking Back to Improve Training of Deep Neural
Networks [15.329684157845872]
我々は、ディープニューラルネットワークモデルのトレーニングを改善するために、新しい振り返り損失を導入する。
レトロスペクティブの損失を最小限に抑え、タスク固有の損失と共に、現在のトレーニングステップでパラメータ状態を最適なパラメータ状態にプッシュします。
簡単なアイデアではあるが、我々はこの手法を解析し、ドメイン全体にわたる包括的な実験を行う。
論文 参考訳(メタデータ) (2020-06-24T10:16:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。