論文の概要: Dense Unsupervised Learning for Video Segmentation
- arxiv url: http://arxiv.org/abs/2111.06265v1
- Date: Thu, 11 Nov 2021 15:15:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-12 13:47:07.488957
- Title: Dense Unsupervised Learning for Video Segmentation
- Title(参考訳): ビデオセグメンテーションのための難読教師なし学習
- Authors: Nikita Araslanov, Simone Schaub-Meyer and Stefan Roth
- Abstract要約: ビデオオブジェクトセグメンテーション(VOS)のための教師なし学習のための新しいアプローチを提案する。
これまでの研究とは異なり、我々の定式化によって、完全に畳み込みの仕組みで、密集した特徴表現を直接学習することができる。
我々の手法は、トレーニングデータや計算能力が大幅に少ないにもかかわらず、以前の作業のセグメンテーション精度を超える。
- 参考スコア(独自算出の注目度): 49.46930315961636
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel approach to unsupervised learning for video object
segmentation (VOS). Unlike previous work, our formulation allows to learn dense
feature representations directly in a fully convolutional regime. We rely on
uniform grid sampling to extract a set of anchors and train our model to
disambiguate between them on both inter- and intra-video levels. However, a
naive scheme to train such a model results in a degenerate solution. We propose
to prevent this with a simple regularisation scheme, accommodating the
equivariance property of the segmentation task to similarity transformations.
Our training objective admits efficient implementation and exhibits fast
training convergence. On established VOS benchmarks, our approach exceeds the
segmentation accuracy of previous work despite using significantly less
training data and compute power.
- Abstract(参考訳): 本稿では,ビデオオブジェクトセグメンテーション(VOS)のための教師なし学習手法を提案する。
従来の研究と異なり、我々の定式化は、完全な畳み込み方式で、密集した特徴表現を直接学習することができる。
我々は、一様グリッドサンプリングを用いてアンカーの集合を抽出し、ビデオ間レベルと動画内レベルの両方でそれらを曖昧にするためにモデルを訓練する。
しかし、そのようなモデルを訓練する素案は退化解をもたらす。
分割タスクの同値性を類似性変換に適合させる単純な正規化スキームでこれを防止することを提案する。
我々の訓練目標は、効率的な実施を認め、迅速な訓練収束を示す。
確立されたVOSベンチマークでは、トレーニングデータや計算能力が大幅に少ないにもかかわらず、従来の作業のセグメンテーション精度を上回っている。
関連論文リスト
- Unsupervised Representation Learning by Balanced Self Attention Matching [2.3020018305241337]
本稿では,BAMと呼ばれる画像特徴を埋め込む自己教師型手法を提案する。
我々は,これらの分布とグローバルな均衡とエントロピー正規化バージョンに一致する損失を最小化することにより,豊かな表現と特徴の崩壊を回避する。
半教師付きベンチマークと移動学習ベンチマークの両方において,先行手法と競合する性能を示す。
論文 参考訳(メタデータ) (2024-08-04T12:52:44Z) - Self-Supervised Dual Contouring [30.9409064656302]
本稿ではニューラルデュアルコンチューリングメッシュフレームワークのための自己教師型トレーニングスキームを提案する。
生成メッシュ間の距離の整合性を促進する2つの新しい自己教師付き損失関数を用いる。
単視点再構成作業における自己監督的損失によりメッシュ性能が向上することが実証された。
論文 参考訳(メタデータ) (2024-05-28T12:44:28Z) - Temporally Consistent Unbalanced Optimal Transport for Unsupervised Action Segmentation [31.622109513774635]
本稿では,長編未編集ビデオに対するアクションセグメンテーションタスクに対する新しいアプローチを提案する。
グロモフ・ワッサーシュタイン問題に先立って時間的一貫性を符号化することにより、時間的に一貫したセグメンテーションをデコードすることができる。
本手法では,ビデオの時間的整合性を達成するための動作順序を知る必要はない。
論文 参考訳(メタデータ) (2024-04-01T22:53:47Z) - Unsupervised Video Summarization via Iterative Training and Simplified GAN [12.32122301626006]
本稿では, 生成的対角ネットワークのアイデアを用いた, 教師なしの映像要約手法を提案する。
また、複数回の繰り返しに対して、再構成器とフレームセレクタを交互に訓練することにより、反復的トレーニング戦略を適用する。
論文 参考訳(メタデータ) (2023-11-07T06:01:56Z) - Transform-Equivariant Consistency Learning for Temporal Sentence
Grounding [66.10949751429781]
ビデオ毎により差別的な表現を学習するために,新しい同変一貫性規則学習フレームワークを導入する。
私たちのモチベーションは、クエリ誘導アクティビティの時間的境界を一貫して予測することにある。
特に,ビデオの完全性と滑らか性を高めるために,自己教師付き一貫性損失モジュールを考案した。
論文 参考訳(メタデータ) (2023-05-06T19:29:28Z) - Parameter Decoupling Strategy for Semi-supervised 3D Left Atrium
Segmentation [0.0]
本稿では,パラメータ分離戦略に基づく半教師付きセグメンテーションモデルを提案する。
提案手法は,Atrial Challengeデータセット上での最先端の半教師付き手法と競合する結果を得た。
論文 参考訳(メタデータ) (2021-09-20T14:51:42Z) - Self-supervised Augmentation Consistency for Adapting Semantic
Segmentation [56.91850268635183]
本稿では,実用的かつ高精度な意味セグメンテーションのためのドメイン適応手法を提案する。
私たちは標準データ拡張技術である$-$フォトメトリックノイズ、フリップとスケーリング$-$を採用し、セマンティック予測の一貫性を保証する。
適応後の最先端セグメンテーション精度を大幅に改善し、バックボーンアーキテクチャと適応シナリオの異なる選択に整合性を持たせる。
論文 参考訳(メタデータ) (2021-04-30T21:32:40Z) - Unsupervised Learning of Video Representations via Dense Trajectory
Clustering [86.45054867170795]
本稿では,ビデオにおける行動認識のための表現の教師なし学習の課題に対処する。
まず、このクラスの2つのトップパフォーマンス目標(インスタンス認識と局所集約)を適用することを提案する。
有望な性能を観察するが、定性的解析により、学習した表現が動きのパターンを捉えないことを示す。
論文 参考訳(メタデータ) (2020-06-28T22:23:03Z) - Self-supervised Video Object Segmentation [76.83567326586162]
本研究の目的は、半教師付きビデオオブジェクトセグメンテーション(高密度トラッキング)の解決を目的とした自己教師付き表現学習である。
i) 従来の自己教師型アプローチを改善すること、(ii) オンライン適応モジュールによる自己教師型アプローチの強化により、空間的時間的不連続性によるトラッカーのドリフトを緩和すること、(iv) DAVIS-2017とYouTubeの自己教師型アプローチで最先端の結果を示すこと、などが提案されている。
論文 参考訳(メタデータ) (2020-06-22T17:55:59Z) - Learning Diverse Representations for Fast Adaptation to Distribution
Shift [78.83747601814669]
本稿では,複数のモデルを学習する手法を提案する。
分散シフトへの迅速な適応を促進するフレームワークの能力を実証する。
論文 参考訳(メタデータ) (2020-06-12T12:23:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。