論文の概要: Weakly-Supervised Online Action Segmentation in Multi-View Instructional
Videos
- arxiv url: http://arxiv.org/abs/2203.13309v1
- Date: Thu, 24 Mar 2022 19:27:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-28 13:35:27.877121
- Title: Weakly-Supervised Online Action Segmentation in Multi-View Instructional
Videos
- Title(参考訳): マルチビューインストラクショナルビデオにおける弱い修正オンラインアクションセグメンテーション
- Authors: Reza Ghoddoosian, Isht Dwivedi, Nakul Agarwal, Chiho Choi, Behzad
Dariush
- Abstract要約: 動的プログラミングを用いて,オンラインストリーミングビデオをテスト時にセグメント化するためのフレームワークを提案する。
オンライン・オフライン離散損失(OODL)を導入し、セグメンテーション結果の時間的整合性を高めることにより、我々の枠組みを改善する。
- 参考スコア(独自算出の注目度): 20.619236432228625
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper addresses a new problem of weakly-supervised online action
segmentation in instructional videos. We present a framework to segment
streaming videos online at test time using Dynamic Programming and show its
advantages over greedy sliding window approach. We improve our framework by
introducing the Online-Offline Discrepancy Loss (OODL) to encourage the
segmentation results to have a higher temporal consistency. Furthermore, only
during training, we exploit frame-wise correspondence between multiple views as
supervision for training weakly-labeled instructional videos. In particular, we
investigate three different multi-view inference techniques to generate more
accurate frame-wise pseudo ground-truth with no additional annotation cost. We
present results and ablation studies on two benchmark multi-view datasets,
Breakfast and IKEA ASM. Experimental results show efficacy of the proposed
methods both qualitatively and quantitatively in two domains of cooking and
assembly.
- Abstract(参考訳): 本稿では,教師付きオンラインアクションセグメンテーションの新しい課題に対処する。
本稿では、動的プログラミングを用いて、オンラインのストリーミングビデオをテスト時にセグメント化するためのフレームワークを提案する。
我々は,オンラインオフライン不一致損失(oodl)を導入し,セグメンテーション結果の時間的一貫性を高めることにより,このフレームワークを改善した。
さらに, 学習中のみ, 複数の視点間のフレーム対応を, 弱ラベル教示ビデオの訓練の監督として活用する。
特に,3つの異なるマルチビュー推論手法について検討し,追加のアノテーションコストを伴わずに,より精度の高いフレームワイズ疑似グラウンドルースを生成する。
本研究は,朝食とikea asmの2つのベンチマークマルチビューデータセットに関する結果とアブレーション研究である。
実験により, 調理と組立の2分野において, 定性的かつ定量的に提案手法の有効性が示された。
関連論文リスト
- Siamese Learning with Joint Alignment and Regression for Weakly-Supervised Video Paragraph Grounding [70.31050639330603]
ビデオ段落の接頭辞は、意味的関係と時間的順序を持つ複数の文を、トリミングされていないビデオからローカライズすることを目的としている。
既存のVPGアプローチは、かなりの数の時間ラベルに大きく依存している。
我々は、時間的アノテーションの必要性を排除するために、Wakly-Supervised Video paragraph Grounding (WSVPG)を導入し、探索する。
論文 参考訳(メタデータ) (2024-03-18T04:30:31Z) - Collaborative Weakly Supervised Video Correlation Learning for
Procedure-Aware Instructional Video Analysis [31.541911711448318]
本稿では,指導ビデオにおけるプロシージャ・アウェア・相関学習のための弱教師付きフレームワークを提案する。
私たちのフレームワークは、協調的なステップマイニングとフレーム・ツー・ステップアライメントという、2つのコアモジュールで構成されています。
我々は,我々のフレームワークを,シーケンス検証と行動品質評価という,2つの異なる指導ビデオタスクでインスタンス化する。
論文 参考訳(メタデータ) (2023-12-18T08:57:10Z) - Proposal-Based Multiple Instance Learning for Weakly-Supervised Temporal
Action Localization [98.66318678030491]
微弱に監督された時間的行動ローカライゼーションは、トレーニング中にビデオレベルのカテゴリラベルのみを持つ未トリミングビデオのアクションをローカライズし、認識することを目的としている。
本稿では,提案手法をベースとしたP-MIL(Multiple Instance Learning)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-29T02:48:04Z) - Solve the Puzzle of Instance Segmentation in Videos: A Weakly Supervised
Framework with Spatio-Temporal Collaboration [13.284951215948052]
ビデオにおけるtextbfS-patiotextbfTemporal textbfClaboration の例を示す。
提案手法は,TrackR-CNN と MaskTrack R-CNN の完全教師付き性能よりも優れる。
論文 参考訳(メタデータ) (2022-12-15T02:44:13Z) - Self-Supervised Video Representation Learning with Motion-Contrastive
Perception [13.860736711747284]
モーションコントラスト知覚ネットワーク(MCPNet)
MCPNetは、MIP(Motion Information Perception)とCIP(Contrastive Instance Perception)の2つのブランチから構成される。
本手法は,現在最先端の視覚のみによる自己監督手法よりも優れています。
論文 参考訳(メタデータ) (2022-04-10T05:34:46Z) - Weakly-Supervised Spatio-Temporal Anomaly Detection in Surveillance
Video [128.41392860714635]
Weakly-Supervised Snoma-Temporally Detection (WSSTAD) を監視ビデオに導入する。
WSSTADは異常事象を封止する時空間管(すなわち連続する境界ボックスのシーケンス)をローカライズすることを目的としている。
本稿では,空間的・時間的領域に複数粒度を持つ入力提案を行うデュアルブランチネットワークを提案する。
論文 参考訳(メタデータ) (2021-08-09T06:11:14Z) - Learning to Track Instances without Video Annotations [85.9865889886669]
本稿では,ラベル付き画像データセットとラベルなしビデオシーケンスのみを用いたインスタンス追跡ネットワークを学習する,新しい半教師付きフレームワークを提案する。
画像のみを訓練しても,学習した特徴表現は出現の変動にロバストであることが判明した。
さらに、このモジュールを単一ステージのインスタンスセグメンテーションとポーズ推定フレームワークに統合します。
論文 参考訳(メタデータ) (2021-04-01T06:47:41Z) - Self-supervised Video Object Segmentation [76.83567326586162]
本研究の目的は、半教師付きビデオオブジェクトセグメンテーション(高密度トラッキング)の解決を目的とした自己教師付き表現学習である。
i) 従来の自己教師型アプローチを改善すること、(ii) オンライン適応モジュールによる自己教師型アプローチの強化により、空間的時間的不連続性によるトラッカーのドリフトを緩和すること、(iv) DAVIS-2017とYouTubeの自己教師型アプローチで最先端の結果を示すこと、などが提案されている。
論文 参考訳(メタデータ) (2020-06-22T17:55:59Z) - Weakly-Supervised Multi-Level Attentional Reconstruction Network for
Grounding Textual Queries in Videos [73.4504252917816]
ビデオ中のテキストクエリを時間的にグラウンド化するタスクは、与えられたクエリに意味的に対応する1つのビデオセグメントをローカライズすることである。
既存のアプローチのほとんどは、トレーニングのためのセグメント-セマンスペア(時間アノテーション)に依存しており、通常は現実のシナリオでは利用できない。
トレーニング段階では,映像文ペアのみに依存するマルチレベル注意再構築ネットワーク(MARN)と呼ばれる,効果的な弱教師付きモデルを提案する。
論文 参考訳(メタデータ) (2020-03-16T07:01:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。