論文の概要: Learning What to Learn for Video Object Segmentation
- arxiv url: http://arxiv.org/abs/2003.11540v2
- Date: Fri, 1 May 2020 16:10:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-20 03:32:09.390242
- Title: Learning What to Learn for Video Object Segmentation
- Title(参考訳): ビデオオブジェクトセグメンテーションのための学習方法の学習
- Authors: Goutam Bhat, Felix J\"aremo Lawin, Martin Danelljan, Andreas Robinson,
Michael Felsberg, Luc Van Gool, Radu Timofte
- Abstract要約: 本稿では,多様な数発の学習モジュールを統合した,エンドツーエンドのトレーニング可能なVOSアーキテクチャを提案する。
この内部学習器は、ターゲットの強力なパラメトリックモデルを予測するように設計されている。
私たちは、大規模なYouTube-VOS 2018データセットに、総合スコア81.5を達成して、新たな最先端を設定しました。
- 参考スコア(独自算出の注目度): 157.4154825304324
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Video object segmentation (VOS) is a highly challenging problem, since the
target object is only defined during inference with a given first-frame
reference mask. The problem of how to capture and utilize this limited target
information remains a fundamental research question. We address this by
introducing an end-to-end trainable VOS architecture that integrates a
differentiable few-shot learning module. This internal learner is designed to
predict a powerful parametric model of the target by minimizing a segmentation
error in the first frame. We further go beyond standard few-shot learning
techniques by learning what the few-shot learner should learn. This allows us
to achieve a rich internal representation of the target in the current frame,
significantly increasing the segmentation accuracy of our approach. We perform
extensive experiments on multiple benchmarks. Our approach sets a new
state-of-the-art on the large-scale YouTube-VOS 2018 dataset by achieving an
overall score of 81.5, corresponding to a 2.6% relative improvement over the
previous best result.
- Abstract(参考訳): ビデオオブジェクトセグメンテーション(VOS)は、対象オブジェクトが所定の第1フレーム参照マスクの推論時にのみ定義されるため、非常に難しい問題である。
この限定的なターゲット情報の取得と利用に関する問題は、依然として基本的な研究課題である。
この問題に対処するために、異なる数発の学習モジュールを統合するエンドツーエンドのトレーニング可能なVOSアーキテクチャを導入しました。
この内部学習者は、第1フレームのセグメンテーション誤差を最小化し、ターゲットの強力なパラメトリックモデルを予測するように設計されている。
数発の学習者が何を学ぶべきかを学ぶことで、標準的な数発の学習テクニックを超えていきます。
これにより、現在のフレーム内のターゲットのリッチな内部表現が可能になり、アプローチのセグメンテーション精度が大幅に向上します。
複数のベンチマークで広範な実験を行う。
当社のアプローチでは,大規模なYouTube-VOS 2018データセットの総合スコアを81.5とすることで,従来よりも2.6%の相対的な改善を実現している。
関連論文リスト
- Self-supervised Video Object Segmentation with Distillation Learning of Deformable Attention [29.62044843067169]
ビデオオブジェクトセグメンテーションはコンピュータビジョンの基本的な研究課題である。
変形性注意の蒸留学習に基づく自己教師型ビデオオブジェクトセグメンテーション法を提案する。
論文 参考訳(メタデータ) (2024-01-25T04:39:48Z) - In-N-Out Generative Learning for Dense Unsupervised Video Segmentation [89.21483504654282]
本稿では,ラベルなしビデオから視覚的対応を学習する,教師なしビデオオブジェクト(VOS)タスクに焦点を当てる。
In-aNd-Out(INO)生成学習を純粋に生成的観点から提案する。
我々のINOは、最先端の手法をかなりのマージンで上回っている。
論文 参考訳(メタデータ) (2022-03-29T07:56:21Z) - Learning Position and Target Consistency for Memory-based Video Object
Segmentation [39.787966275016906]
メモリベースのビデオオブジェクトセグメンテーションのための位置と目標整合性フレームワークを学ぶ。
メモリ機構を適用してピクセルをグローバルに取得し、一方、より信頼性の高いセグメンテーションのための位置一貫性を学習する。
実験により、LCMはDAVISとYoutube-VOSベンチマークの両方で最先端のパフォーマンスを達成しています。
論文 参考訳(メタデータ) (2021-04-09T12:22:37Z) - Few-Shot Learning for Video Object Detection in a Transfer-Learning
Scheme [70.45901040613015]
ビデオ物体検出のための数発学習の新たな課題について検討する。
我々は,多数のベースクラスオブジェクトに対して映像物体検出を効果的に訓練するトランスファー学習フレームワークと,ノベルクラスオブジェクトのいくつかのビデオクリップを用いる。
論文 参考訳(メタデータ) (2021-03-26T20:37:55Z) - Fast Few-Shot Classification by Few-Iteration Meta-Learning [173.32497326674775]
数ショット分類のための高速な最適化に基づくメタラーニング手法を提案する。
我々の戦略はメタ学習において学習すべき基礎学習者の目的の重要な側面を可能にする。
我々は、我々のアプローチの速度と効果を実証し、総合的な実験分析を行う。
論文 参考訳(メタデータ) (2020-10-01T15:59:31Z) - Learning Video Object Segmentation from Unlabeled Videos [158.18207922363783]
未ラベルビデオからのオブジェクトパターン学習に対処するビデオオブジェクトセグメンテーション(VOS)を提案する。
複数の粒度で VOS の特性を包括的にキャプチャする,教師なし/弱教師付き学習フレームワーク MuG を導入している。
論文 参考訳(メタデータ) (2020-03-10T22:12:15Z) - Learning Fast and Robust Target Models for Video Object Segmentation [83.3382606349118]
ビデオオブジェクトセグメンテーション(VOS)は、ターゲットオブジェクトを定義する初期マスクがテスト時にのみ与えられるため、非常に難しい問題である。
それまでのほとんどの場合、第1フレーム上のファイン・チューン・セグメンテーション・ネットワークにアプローチし、非現実的なフレームレートとオーバーフィッティングのリスクをもたらす。
本稿では,2つのネットワークコンポーネントからなる新しいVOSアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-02-27T21:58:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。