論文の概要: Learning Online for Unified Segmentation and Tracking Models
- arxiv url: http://arxiv.org/abs/2111.06994v1
- Date: Fri, 12 Nov 2021 23:52:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-16 13:36:44.019469
- Title: Learning Online for Unified Segmentation and Tracking Models
- Title(参考訳): 統一セグメンテーションと追跡モデルのためのオンライン学習
- Authors: Tianyu Zhu, Rongkai Ma, Mehrtash Harandi and Tom Drummond
- Abstract要約: TrackMLPは、部分的な情報のみから学習するために最適化された新しいメタラーニング手法である。
本モデルでは, 競合モデルに対して, 最先端の性能と具体的な改善を達成できることが示される。
- 参考スコア(独自算出の注目度): 30.146300294418516
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tracking requires building a discriminative model for the target in the
inference stage. An effective way to achieve this is online learning, which can
comfortably outperform models that are only trained offline. Recent research
shows that visual tracking benefits significantly from the unification of
visual tracking and segmentation due to its pixel-level discrimination.
However, it imposes a great challenge to perform online learning for such a
unified model. A segmentation model cannot easily learn from prior information
given in the visual tracking scenario. In this paper, we propose TrackMLP: a
novel meta-learning method optimized to learn from only partial information to
resolve the imposed challenge. Our model is capable of extensively exploiting
limited prior information hence possesses much stronger target-background
discriminability than other online learning methods. Empirically, we show that
our model achieves state-of-the-art performance and tangible improvement over
competing models. Our model achieves improved average overlaps of66.0%,67.1%,
and68.5% in VOT2019, VOT2018, and VOT2016 datasets, which are 6.4%,7.3%,
and6.4% higher than our baseline. Code will be made publicly available.
- Abstract(参考訳): 追跡には、推論段階でターゲットの識別モデルを構築する必要がある。
これを実現する効果的な方法はオンライン学習であり、オフラインでのみトレーニングされたモデルよりも快適に優れている。
近年の研究では、視覚追跡はそのピクセルレベルの識別により、視覚追跡とセグメンテーションの統合により著しく有益であることが示されている。
しかし、このような統一モデルのためにオンライン学習を行うことは大きな課題となる。
セグメンテーションモデルは、視覚追跡シナリオで与えられた事前情報から容易に学習できない。
本稿では,部分情報のみから学習できるように最適化された新しいメタ学習手法であるtrackmlpを提案する。
我々のモデルは、制限された事前情報を広範囲に活用できるので、他のオンライン学習方法よりもはるかに強力な目標背景識別能力を有する。
実験により,本モデルが最先端の性能と,競合モデルよりも明確な改善を実現することを示す。
我々のモデルは、VOT2019、VOT2018、VOT2016データセットにおける平均オーバーラップ率66.0%、67.1%、68.5%の改善を実現している。
コードは公開される予定だ。
関連論文リスト
- Getting More Juice Out of the SFT Data: Reward Learning from Human Demonstration Improves SFT for LLM Alignment [65.15914284008973]
我々は、報酬モデルと政策モデルを同時に構築するために、逆強化学習(IRL)技術を活用することを提案する。
提案アルゴリズムはIRL問題の定常解に収束することを示す。
その結果,アライメントプロセス全体を通じて報酬学習を活用することは有益であることが示唆された。
論文 参考訳(メタデータ) (2024-05-28T07:11:05Z) - An Information Theoretic Approach to Machine Unlearning [45.600917449314444]
学びの鍵となる課題は、モデルのパフォーマンスを保ちながら、必要なデータをタイムリーに忘れることである。
この研究では、ゼロショットのアンラーニングシナリオに対処し、未学習のアルゴリズムは、トレーニングされたモデルと忘れられるデータだけが与えられたデータを削除できなければならない。
モデルの幾何に基づいて、単純だが原則化されたゼロショットアンラーニング法を導出する。
論文 参考訳(メタデータ) (2024-02-02T13:33:30Z) - Learn to Unlearn for Deep Neural Networks: Minimizing Unlearning
Interference with Gradient Projection [56.292071534857946]
最近のデータプライバシ法は、機械学習への関心を喚起している。
課題は、残りのデータセットに関する知識を変更することなく、忘れたデータに関する情報を捨てることである。
我々は、プロジェクテッド・グラディエント・アンラーニング(PGU)という、プロジェクテッド・グラディエント・ベースの学習手法を採用する。
トレーニングデータセットがもはやアクセスできない場合でも、スクラッチからスクラッチで再トレーニングされたモデルと同じような振る舞いをするモデルを、我々のアンラーニング手法が生成できることを実証するための実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-12-07T07:17:24Z) - Universal Domain Adaptation from Foundation Models: A Baseline Study [58.51162198585434]
基礎モデルを用いた最先端UniDA手法の実証的研究を行った。
CLIPモデルからターゲット知識を抽出するためのパラメータフリーな手法であるtextitCLIP 蒸留を導入する。
単純な手法ではあるが、ほとんどのベンチマークタスクでは従来の手法よりも優れている。
論文 参考訳(メタデータ) (2023-05-18T16:28:29Z) - Boosting Visual-Language Models by Exploiting Hard Samples [126.35125029639168]
HELIPは、既存のCLIPモデルの性能を高めるための費用対効果戦略である。
我々の方法では、既存のモデルのトレーニングパイプラインと懸命に統合できます。
包括的なベンチマークでは、HELIPはパフォーマンス向上のために既存のモデルを継続的に強化する。
論文 参考訳(メタデータ) (2023-05-09T07:00:17Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [51.8162883997512]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - Offline Q-Learning on Diverse Multi-Task Data Both Scales And
Generalizes [100.69714600180895]
オフラインのQ-ラーニングアルゴリズムは、モデルキャパシティでスケールする強力なパフォーマンスを示す。
最大8000万のパラメータネットワークを用いて,40のゲームに対してほぼ人間に近いパフォーマンスで1つのポリシーをトレーニングする。
リターン条件付き教師付きアプローチと比較して、オフラインQラーニングはモデルキャパシティと同様にスケールし、特にデータセットが最適以下である場合にはパフォーマンスが向上する。
論文 参考訳(メタデータ) (2022-11-28T08:56:42Z) - Distill on the Go: Online knowledge distillation in self-supervised
learning [1.1470070927586016]
最近の研究では、より広範でより深いモデルは、小さなモデルよりも自己監督学習の恩恵を受けることが示されている。
単段階オンライン知識蒸留を用いた自己指導型学習パラダイムであるDistill-on-the-Go(DoGo)を提案する。
以上の結果から,ノイズラベルや限定ラベルの存在下でのパフォーマンス向上がみられた。
論文 参考訳(メタデータ) (2021-04-20T09:59:23Z) - Few-Shot Lifelong Learning [35.05196800623617]
Few-Shot Lifelong Learningにより、深層学習モデルが短距離/連続学習を実行できます。
提案手法では,モデルからごく少数のパラメータを選択して,モデル全体をトレーニングする代わりに,新しいクラスのセットをトレーニングする。
提案手法は, miniImageNet, CIFAR-100, CUB-200データセットにおいて, 既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-03-01T13:26:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。