論文の概要: Online Action Recognition
- arxiv url: http://arxiv.org/abs/2012.07464v1
- Date: Mon, 14 Dec 2020 12:37:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-08 14:33:36.095388
- Title: Online Action Recognition
- Title(参考訳): オンライン行動認識
- Authors: Alejandro Su\'arez-Hern\'andez and Javier Segovia-Aguas and Carme
Torras and Guillem Aleny\`a
- Abstract要約: 行動統一(AU)とオンライン行動認識(OARU)を提案する。
AUは論理統一に基づいて構築され、重み付き部分MaxSATを使用して2つの入力アクションを一般化する。
OARUは専門家の知識を正確に認識し、リアルタイムのパフォーマンスを示す。
- 参考スコア(独自算出の注目度): 69.32402131983699
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recognition in planning seeks to find agent intentions, goals or activities
given a set of observations and a knowledge library (e.g. goal states, plans or
domain theories). In this work we introduce the problem of Online Action
Recognition. It consists in recognizing, in an open world, the planning action
that best explains a partially observable state transition from a knowledge
library of first-order STRIPS actions, which is initially empty. We frame this
as an optimization problem, and propose two algorithms to address it: Action
Unification (AU) and Online Action Recognition through Unification (OARU). The
former builds on logic unification and generalizes two input actions using
weighted partial MaxSAT. The latter looks for an action within the library that
explains an observed transition. If there is such action, it generalizes it
making use of AU, building in this way an AU hierarchy. Otherwise, OARU inserts
a Trivial Grounded Action (TGA) in the library that explains just that
transition. We report results on benchmarks from the International Planning
Competition and PDDLGym, where OARU recognizes actions accurately with respect
to expert knowledge, and shows real-time performance.
- Abstract(参考訳): 計画における認識は、一連の観察と知識ライブラリ(例えば)が与えられたエージェントの意図、目標、活動を見つけようとする。
目標状態、計画、ドメイン理論)。
本稿では,オンライン行動認識の問題を紹介する。
オープン世界では、最初に空である一階のストリップアクションの知識ライブラリから部分的に観察可能な状態遷移を最善に説明できるプランニングアクションを認識することにある。
我々はこれを最適化問題として、AU(Action Unification)とOARU(Online Action Recognition through Unification)の2つのアルゴリズムを提案する。
前者は論理統一の上に構築し、重み付けされた MaxSAT を用いて2つの入力アクションを一般化する。
後者は、観測された遷移を説明するライブラリ内のアクションを探す。
そのようなアクションがある場合、AUを一般化し、この方法でAU階層を構築する。
そうでなければ、OARUはTrivial Grounded Action (TGA)をライブラリに挿入し、その移行を説明する。
我々は,国際計画コンペティションとPDDLGymのベンチマークの結果を報告する。OARUは専門家の知識を正確に認識し,リアルタイムのパフォーマンスを示す。
関連論文リスト
- FinePseudo: Improving Pseudo-Labelling through Temporal-Alignablity for Semi-Supervised Fine-Grained Action Recognition [57.17966905865054]
実生活における行動認識の応用は、しばしば微妙な動きのきめ細かい理解を必要とする。
既存の半教師ありアクション認識は主に粗いアクション認識に焦点を当てている。
そこで我々は,微粒なアクションペアの識別を効果的に行うための,アライナビリティ検証に基づくメトリック学習手法を提案する。
論文 参考訳(メタデータ) (2024-09-02T20:08:06Z) - ActionSwitch: Class-agnostic Detection of Simultaneous Actions in Streaming Videos [35.371453530275666]
ActionSwitchは、オーバーラップするアクションを検出することができる最初のクラスに依存しないOn-TALフレームワークである。
クラス情報への依存をなくすことで、ActionSwitchは様々な状況に幅広い適用性を提供します。
論文 参考訳(メタデータ) (2024-07-17T20:07:05Z) - Continual Generalized Intent Discovery: Marching Towards Dynamic and
Open-world Intent Recognition [25.811639218862958]
Generalized Intent Discovery (GID)は、OOD学習の1段階のみを考慮し、過去のすべての段階におけるデータを共同トレーニングに活用する必要がある。
Continual Generalized Intent Discovery (CGID)は、動的OODデータストリームからOODインテントを継続的にかつ自動的に検出することを目的としている。
PLRDはクラスプロトタイプを通じて新しいインテント発見をブートストラップし、データ再生と特徴蒸留を通じて新しいインテントと古いインテントのバランスをとる。
論文 参考訳(メタデータ) (2023-10-16T08:48:07Z) - Action Sensitivity Learning for Temporal Action Localization [35.65086250175736]
本稿では,時間的行動ローカライゼーションの課題に取り組むために,行動感性学習フレームワーク(ASL)を提案する。
まず、クラスレベルでのアクション感度とインスタンスレベルでのアクション感度を学習するための軽量なアクション感度評価器を導入する。
各フレームの動作感度に基づいて、アクション認識フレームを正のペアとしてサンプリングし、アクション非関連フレームを除去する機能を強化するために、アクション感性コントラスト損失を設計する。
論文 参考訳(メタデータ) (2023-05-25T04:19:14Z) - DOAD: Decoupled One Stage Action Detection Network [77.14883592642782]
人々をローカライズし、ビデオからアクションを認識することは、ハイレベルなビデオ理解にとって難しい課題だ。
既存の手法は主に2段階ベースで、1段階は人物境界ボックス生成、もう1段階は行動認識を行う。
本稿では、時間的行動検出の効率を向上させるために、DOADと呼ばれる分離したワンステージネットワークを提案する。
論文 参考訳(メタデータ) (2023-04-01T08:06:43Z) - Actor-identified Spatiotemporal Action Detection -- Detecting Who Is
Doing What in Videos [29.5205455437899]
ビデオ中の各アクションの開始時刻と終了時刻を推定するために、TAD(Temporal Action Detection)が検討されている。
時空間行動検出 (SAD) は, 映像の空間的, 時間的両方の行動の局所化を目的として研究されている。
SADアクター識別のギャップを埋める新しいタスクであるActor-identified Spatiotemporal Action Detection (ASAD)を提案する。
論文 参考訳(メタデータ) (2022-08-27T06:51:12Z) - Graph Convolutional Module for Temporal Action Localization in Videos [142.5947904572949]
アクション・ユニット間の関係は、アクション・ローカライゼーションにおいて重要な役割を果たすと主張する。
より強力なアクション検出器は、各アクションユニットの局所的な内容をキャプチャするだけでなく、関連するコンテキストに関する広い視野を許容するべきである。
本稿では,既存の動作ローカライズ手法に簡単にプラグイン可能な汎用グラフ畳み込みモジュール(GCM)を提案する。
論文 参考訳(メタデータ) (2021-12-01T06:36:59Z) - Weakly Supervised Temporal Action Localization Through Learning Explicit
Subspaces for Action and Context [151.23835595907596]
ビデオレベルの監視のみの下で、アクションインスタンスの時間的開始と終了をローカライズする方法を学ぶ。
アクションとコンテキストそれぞれについて,2つの機能サブスペースを学習するフレームワークを提案する。
提案手法は3つのベンチマークで最先端のWS-TAL法より優れている。
論文 参考訳(メタデータ) (2021-03-30T08:26:53Z) - FineGym: A Hierarchical Video Dataset for Fine-grained Action
Understanding [118.32912239230272]
FineGymは体操ビデオの上に構築された新しいアクション認識データセットだ。
アクションレベルとサブアクションレベルの両方で3レベルのセマンティック階層を持つテンポラリアノテーションを提供する。
この新たな粒度レベルは、行動認識に重大な課題をもたらす。
論文 参考訳(メタデータ) (2020-04-14T17:55:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。