論文の概要: Dense Unsupervised Learning for Video Segmentation
- arxiv url: http://arxiv.org/abs/2111.06265v1
- Date: Thu, 11 Nov 2021 15:15:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-12 13:47:07.488957
- Title: Dense Unsupervised Learning for Video Segmentation
- Title(参考訳): ビデオセグメンテーションのための難読教師なし学習
- Authors: Nikita Araslanov, Simone Schaub-Meyer and Stefan Roth
- Abstract要約: ビデオオブジェクトセグメンテーション(VOS)のための教師なし学習のための新しいアプローチを提案する。
これまでの研究とは異なり、我々の定式化によって、完全に畳み込みの仕組みで、密集した特徴表現を直接学習することができる。
我々の手法は、トレーニングデータや計算能力が大幅に少ないにもかかわらず、以前の作業のセグメンテーション精度を超える。
- 参考スコア(独自算出の注目度): 49.46930315961636
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel approach to unsupervised learning for video object
segmentation (VOS). Unlike previous work, our formulation allows to learn dense
feature representations directly in a fully convolutional regime. We rely on
uniform grid sampling to extract a set of anchors and train our model to
disambiguate between them on both inter- and intra-video levels. However, a
naive scheme to train such a model results in a degenerate solution. We propose
to prevent this with a simple regularisation scheme, accommodating the
equivariance property of the segmentation task to similarity transformations.
Our training objective admits efficient implementation and exhibits fast
training convergence. On established VOS benchmarks, our approach exceeds the
segmentation accuracy of previous work despite using significantly less
training data and compute power.
- Abstract(参考訳): 本稿では,ビデオオブジェクトセグメンテーション(VOS)のための教師なし学習手法を提案する。
従来の研究と異なり、我々の定式化は、完全な畳み込み方式で、密集した特徴表現を直接学習することができる。
我々は、一様グリッドサンプリングを用いてアンカーの集合を抽出し、ビデオ間レベルと動画内レベルの両方でそれらを曖昧にするためにモデルを訓練する。
しかし、そのようなモデルを訓練する素案は退化解をもたらす。
分割タスクの同値性を類似性変換に適合させる単純な正規化スキームでこれを防止することを提案する。
我々の訓練目標は、効率的な実施を認め、迅速な訓練収束を示す。
確立されたVOSベンチマークでは、トレーニングデータや計算能力が大幅に少ないにもかかわらず、従来の作業のセグメンテーション精度を上回っている。
関連論文リスト
- Unsupervised Video Summarization [13.84781990050851]
本稿では, 生成的対角ネットワークのアイデアを用いた, 教師なしの映像要約手法を提案する。
また、複数回の繰り返しに対して、再構成器とフレームセレクタを交互に訓練することにより、反復的トレーニング戦略を適用する。
論文 参考訳(メタデータ) (2023-11-07T06:01:56Z) - Transform-Equivariant Consistency Learning for Temporal Sentence
Grounding [66.10949751429781]
ビデオ毎により差別的な表現を学習するために,新しい同変一貫性規則学習フレームワークを導入する。
私たちのモチベーションは、クエリ誘導アクティビティの時間的境界を一貫して予測することにある。
特に,ビデオの完全性と滑らか性を高めるために,自己教師付き一貫性損失モジュールを考案した。
論文 参考訳(メタデータ) (2023-05-06T19:29:28Z) - Parameter Decoupling Strategy for Semi-supervised 3D Left Atrium
Segmentation [0.0]
本稿では,パラメータ分離戦略に基づく半教師付きセグメンテーションモデルを提案する。
提案手法は,Atrial Challengeデータセット上での最先端の半教師付き手法と競合する結果を得た。
論文 参考訳(メタデータ) (2021-09-20T14:51:42Z) - Self-supervised Augmentation Consistency for Adapting Semantic
Segmentation [56.91850268635183]
本稿では,実用的かつ高精度な意味セグメンテーションのためのドメイン適応手法を提案する。
私たちは標準データ拡張技術である$-$フォトメトリックノイズ、フリップとスケーリング$-$を採用し、セマンティック予測の一貫性を保証する。
適応後の最先端セグメンテーション精度を大幅に改善し、バックボーンアーキテクチャと適応シナリオの異なる選択に整合性を持たせる。
論文 参考訳(メタデータ) (2021-04-30T21:32:40Z) - Self-paced and self-consistent co-training for semi-supervised image
segmentation [23.100800154116627]
注釈付きデータが不足している場合のイメージセグメンテーションに有効な手法として、ディープコトレーニングが提案されている。
本稿では, 半教師付きセグメンテーションの既存手法を, 自己完結型・自己整合型協調学習法により改良する。
論文 参考訳(メタデータ) (2020-10-31T17:41:03Z) - Unsupervised Learning Consensus Model for Dynamic Texture Videos
Segmentation [12.462608802359936]
動的テクスチャのセグメンテーションのための効果的な教師なし学習コンセンサスモデルを提案する。
提案モデルでは,分類対象画素の周辺部における再量子化局所2値パターン(LBP)ヒストグラムの値の集合を特徴として用いた。
挑戦的なSynthDBデータセットで実施された実験は、ULCMが大幅に高速で、コーディングが簡単で、単純で、パラメータが限られていることを示している。
論文 参考訳(メタデータ) (2020-06-29T16:40:59Z) - Unsupervised Learning of Video Representations via Dense Trajectory
Clustering [86.45054867170795]
本稿では,ビデオにおける行動認識のための表現の教師なし学習の課題に対処する。
まず、このクラスの2つのトップパフォーマンス目標(インスタンス認識と局所集約)を適用することを提案する。
有望な性能を観察するが、定性的解析により、学習した表現が動きのパターンを捉えないことを示す。
論文 参考訳(メタデータ) (2020-06-28T22:23:03Z) - Self-supervised Video Object Segmentation [76.83567326586162]
本研究の目的は、半教師付きビデオオブジェクトセグメンテーション(高密度トラッキング)の解決を目的とした自己教師付き表現学習である。
i) 従来の自己教師型アプローチを改善すること、(ii) オンライン適応モジュールによる自己教師型アプローチの強化により、空間的時間的不連続性によるトラッカーのドリフトを緩和すること、(iv) DAVIS-2017とYouTubeの自己教師型アプローチで最先端の結果を示すこと、などが提案されている。
論文 参考訳(メタデータ) (2020-06-22T17:55:59Z) - Learning Diverse Representations for Fast Adaptation to Distribution
Shift [78.83747601814669]
本稿では,複数のモデルを学習する手法を提案する。
分散シフトへの迅速な適応を促進するフレームワークの能力を実証する。
論文 参考訳(メタデータ) (2020-06-12T12:23:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。