論文の概要: Temporally stable video segmentation without video annotations
- arxiv url: http://arxiv.org/abs/2110.08893v1
- Date: Sun, 17 Oct 2021 18:59:11 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-19 17:25:32.141595
- Title: Temporally stable video segmentation without video annotations
- Title(参考訳): ビデオアノテーションのない時間安定なビデオセグメンテーション
- Authors: Aharon Azulay, Tavi Halperin, Orestis Vantzos, Nadav Bornstein, Ofir
Bibi
- Abstract要約: 静止画像分割モデルを教師なしの方法でビデオに適応させる手法を提案する。
整合性尺度がヒトの判断とよく相関していることを検証する。
生成したセグメンテーションビデオの精度の低下を最小限に抑えて改善を観察する。
- 参考スコア(独自算出の注目度): 6.184270985214255
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Temporally consistent dense video annotations are scarce and hard to collect.
In contrast, image segmentation datasets (and pre-trained models) are
ubiquitous, and easier to label for any novel task. In this paper, we introduce
a method to adapt still image segmentation models to video in an unsupervised
manner, by using an optical flow-based consistency measure. To ensure that the
inferred segmented videos appear more stable in practice, we verify that the
consistency measure is well correlated with human judgement via a user study.
Training a new multi-input multi-output decoder using this measure as a loss,
together with a technique for refining current image segmentation datasets and
a temporal weighted-guided filter, we observe stability improvements in the
generated segmented videos with minimal loss of accuracy.
- Abstract(参考訳): 時間的に一貫性のある密集したビデオアノテーションは少なく、収集が難しい。
対照的に、イメージセグメンテーションデータセット(および事前訓練されたモデル)はユビキタスであり、新しいタスクのラベル付けが容易である。
本稿では,光学的フローベース一貫性尺度を用いて,静止画像分割モデルを教師なしの方法で映像に適応させる手法を提案する。
推定されたセグメンテーション映像が実際により安定して見えるようにするため,ユーザ調査により,一貫性尺度が人間の判断とよく相関していることを確認した。
この尺度を損失として用いた新しいマルチ入力マルチアウトプットデコーダの訓練と,現在の画像セグメンテーションデータセットと時間重み付きガイド付きフィルタの精錬技術を用いて,生成したセグメンテーションビデオの安定性向上を最小の精度で観測した。
関連論文リスト
- VidToMe: Video Token Merging for Zero-Shot Video Editing [100.79999871424931]
本稿では,フレーム間で自己注意トークンをマージすることで,生成ビデオの時間的一貫性を高める新しい手法を提案する。
本手法は時間的コヒーレンスを改善し,自己アテンション計算におけるメモリ消費を削減する。
論文 参考訳(メタデータ) (2023-12-17T09:05:56Z) - Revisiting Kernel Temporal Segmentation as an Adaptive Tokenizer for
Long-form Video Understanding [57.917616284917756]
実世界のビデオは、しばしば数分間の長さであり、意味的に一貫した長さのセグメントがある。
長いビデオを処理するための一般的なアプローチは、一定時間の長さの一様にサンプリングされたクリップにショートフォームビデオモデルを適用することである。
このアプローチは、固定長のクリップがしばしば冗長または非形式的であるため、長いビデオの基本的な性質を無視する。
論文 参考訳(メタデータ) (2023-09-20T18:13:32Z) - Time Does Tell: Self-Supervised Time-Tuning of Dense Image
Representations [79.87044240860466]
本稿では,高密度自己教師あり学習における時間的一貫性を取り入れた新しい手法を提案する。
タイムチューニング(time-tuning)と呼ぶ我々のアプローチは、画像事前学習モデルから始まり、ラベルなしビデオに新たな自己教師付き時間的アライメントクラスタリングロスを伴って微調整を行う。
タイムチューニングは、教師なしのセマンティックセマンティックセグメンテーションを8~10%改善し、画像にマッチさせる。
論文 参考訳(メタデータ) (2023-08-22T21:28:58Z) - Generating Long Videos of Dynamic Scenes [66.56925105992472]
本稿では、物体の動きを再現する映像生成モデル、カメラ視点の変化、時間とともに現れる新しいコンテンツについて述べる。
よくある障害ケースは、コンテンツが時間的一貫性を提供する誘導バイアスに過度に依存するため、決して変化しないことです。
論文 参考訳(メタデータ) (2022-06-07T16:29:51Z) - Video Demoireing with Relation-Based Temporal Consistency [68.20281109859998]
カラー歪みのように見えるモアレパターンは、デジタルカメラでスクリーンを撮影する際に、画像と映像の画質を著しく劣化させる。
我々は、このような望ましくないモアレパターンをビデオで除去する方法を研究している。
論文 参考訳(メタデータ) (2022-04-06T17:45:38Z) - Adaptive Compact Attention For Few-shot Video-to-video Translation [13.535988102579918]
本稿では,複数の参照画像からコンテキスト特徴を効率的に抽出する適応型コンパクトアテンション機構を提案する。
我々の中心となる考え方は、すべての参照画像からより高レベルな表現としてコンパクトな基底集合を抽出することである。
提案手法を大規模トーキングヘッドビデオデータセットと人間のダンスデータセットで広範囲に評価した。
論文 参考訳(メタデータ) (2020-11-30T11:19:12Z) - Coherent Loss: A Generic Framework for Stable Video Segmentation [103.78087255807482]
ビデオセグメンテーションの結果の視覚的品質を,ジッタリングアーティファクトがいかに劣化させるかを検討する。
本稿では,ニューラルネットワークの性能向上を目的とした汎用フレームワークを備えたコヒーレントロスを提案する。
論文 参考訳(メタデータ) (2020-10-25T10:48:28Z) - Improving Semantic Segmentation through Spatio-Temporal Consistency
Learned from Videos [39.25927216187176]
我々は、深度、エゴモーション、カメラの内在性に関する教師なし学習を活用して、単一画像のセマンティックセマンティックセグメンテーションを改善する。
セグメンテーションモデルにさらなる監視信号を与えるために、予測深度、エゴモーション、カメラ内在性を用いている。
論文 参考訳(メタデータ) (2020-04-11T07:09:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。