論文の概要: Unsupervised Action Segmentation for Instructional Videos
- arxiv url: http://arxiv.org/abs/2106.03738v1
- Date: Mon, 7 Jun 2021 16:02:06 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-08 17:58:39.746553
- Title: Unsupervised Action Segmentation for Instructional Videos
- Title(参考訳): インストラクショナルビデオのための教師なしアクションセグメンテーション
- Authors: AJ Piergiovanni and Anelia Angelova and Michael S. Ryoo and Irfan Essa
- Abstract要約: 我々は,様々な指導ビデオから構造化された人間のタスクの原子的動作を学習するための教師なしのアプローチを提案する。
これは、タスクの異なるアトミックアクション間のシーケンシャルな関係を表現し、発見することを学び、自動的で教師なしの自己ラベルを提供する。
- 参考スコア(独自算出の注目度): 86.77350242461803
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we address the problem of automatically discovering atomic
actions in unsupervised manner from instructional videos, which are rarely
annotated with atomic actions. We present an unsupervised approach to learn
atomic actions of structured human tasks from a variety of instructional videos
based on a sequential stochastic autoregressive model for temporal segmentation
of videos. This learns to represent and discover the sequential relationship
between different atomic actions of the task, and which provides automatic and
unsupervised self-labeling.
- Abstract(参考訳): 本稿では、教師なしのビデオから原子のアクションを自動的に検出する問題に対処するが、原子のアクションに注釈を付けることは滅多にない。
ビデオの時間的セグメンテーションのための逐次確率的自己回帰モデルに基づいて,様々な指導ビデオから構造化された人間のタスクの原子的動作を学習するための教師なしアプローチを提案する。
これは、タスクの異なるアトミックアクション間のシーケンシャルな関係を表現し発見することを学び、自動的で教師なしの自己ラベルを提供する。
関連論文リスト
- Temporal Divide-and-Conquer Anomaly Actions Localization in Semi-Supervised Videos with Hierarchical Transformer [0.9208007322096532]
異常な行動の検出と位置決めは、セキュリティと高度な監視システムにおいて重要な役割を果たす。
本稿では,異常ビデオにおける観察行動の重要性を評価するために,階層型トランスフォーマーモデルを提案する。
本手法は, 親映像を階層的に複数の時間的児童事例に区分し, 親映像の異常の分類における子ノードの影響を計測する。
論文 参考訳(メタデータ) (2024-08-24T18:12:58Z) - StepFormer: Self-supervised Step Discovery and Localization in
Instructional Videos [47.03252542488226]
本稿では、ビデオ中の命令ステップを検出し、ローカライズする自己教師型モデルであるStepFormerを紹介する。
我々は、自動生成した字幕を唯一の監督源として、大規模な指導ビデオのデータセットで学習する。
本モデルでは,従来の教師なしおよび弱教師付きアプローチにおいて,ステップ検出とローカライゼーションにおいて優れた性能を発揮する。
論文 参考訳(メタデータ) (2023-04-26T03:37:28Z) - Weakly-Supervised Temporal Action Detection for Fine-Grained Videos with
Hierarchical Atomic Actions [13.665489987620724]
ビデオにおける微粒な時間的行動検出の弱さに対処する。
本稿では、データから自動的に検出される再利用可能なアトミックアクションの組み合わせとしてアクションをモデル化する。
提案手法は,クリップレベル,アトミックアクションレベル,ファインアクションクラスレベル,粗いアクションクラスレベルという4つのレベルの視覚的表現階層を構築し,各レベルを監督する。
論文 参考訳(メタデータ) (2022-07-24T20:32:24Z) - Learning To Recognize Procedural Activities with Distant Supervision [96.58436002052466]
最大数分間の長いビデオから、きめ細かな多段階のアクティビティを分類する問題を考察する。
提案手法は,ビデオから自動書き起こされた音声の雑音に合う言語モデルを用いて,知識ベースで記述をステップする。
論文 参考訳(メタデータ) (2022-01-26T15:06:28Z) - Learning to Align Sequential Actions in the Wild [123.62879270881807]
本研究では,多様な時間的変動を伴う野生における逐次行動の整合性を示すアプローチを提案する。
我々のモデルは単調列と非単調列の両方を考慮に入れている。
自己教師型シーケンシャルな行動表現学習において,我々のアプローチは一貫して最先端の行動表現学習に勝っていることを示す。
論文 参考訳(メタデータ) (2021-11-17T18:55:36Z) - Unsupervised Discovery of Actions in Instructional Videos [86.77350242461803]
我々は,様々な指導ビデオから構造化された人間のタスクの原子的動作を学習するための教師なしのアプローチを提案する。
本稿では,映像の時間的セグメンテーションのための逐次自己回帰モデルを提案する。
我々の手法は、最先端の教師なし手法よりも大きなマージンで優れています。
論文 参考訳(メタデータ) (2021-06-28T14:05:01Z) - Learning to Segment Actions from Observation and Narration [56.99443314542545]
映像中の動作セグメント化に対して,ナレーションによって誘導されるタスク構造の生成セグメントモデルを適用する。
我々は、トレーニング中にアクションラベルが知られていない、教師なしで弱い教師付き設定に焦点を当てる。
論文 参考訳(メタデータ) (2020-05-07T18:03:57Z) - A Benchmark for Structured Procedural Knowledge Extraction from Cooking
Videos [126.66212285239624]
本稿では,調理ビデオから抽出した構造化手続き的知識のベンチマークを提案する。
手動で注釈付けしたオープン語彙リソースには、356の指導的調理ビデオと15,523のビデオクリップ/文レベルのアノテーションが含まれています。
論文 参考訳(メタデータ) (2020-05-02T05:15:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。