論文の概要: ConvGRU in Fine-grained Pitching Action Recognition for Action Outcome
Prediction
- arxiv url: http://arxiv.org/abs/2008.07819v1
- Date: Tue, 18 Aug 2020 09:27:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-27 22:07:29.268451
- Title: ConvGRU in Fine-grained Pitching Action Recognition for Action Outcome
Prediction
- Title(参考訳): アクションアウトカム予測のための微細ピッチング動作認識におけるConvGRU
- Authors: Tianqi Ma, Lin Zhang, Xiumin Diao, Ou Ma
- Abstract要約: きめ細かい行動認識は、人間とロボットの相互作用、インテリジェントな交通管理、スポーツトレーニング、ヘルスケアなど、多くの分野において重要である。
本稿では,畳み込みゲートリカレントユニット(ConvGRU)法の性能について検討する。
人間の行動のRGB画像のシーケンスに基づいて、提案手法は79.17%の性能を達成した。
- 参考スコア(独自算出の注目度): 4.073910992747716
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prediction of the action outcome is a new challenge for a robot
collaboratively working with humans. With the impressive progress in video
action recognition in recent years, fine-grained action recognition from video
data turns into a new concern. Fine-grained action recognition detects subtle
differences of actions in more specific granularity and is significant in many
fields such as human-robot interaction, intelligent traffic management, sports
training, health caring. Considering that the different outcomes are closely
connected to the subtle differences in actions, fine-grained action recognition
is a practical method for action outcome prediction. In this paper, we explore
the performance of convolutional gate recurrent unit (ConvGRU) method on a
fine-grained action recognition tasks: predicting outcomes of ball-pitching.
Based on sequences of RGB images of human actions, the proposed approach
achieved the performance of 79.17% accuracy, which exceeds the current
state-of-the-art result. We also compared different network implementations and
showed the influence of different image sampling methods, different fusion
methods and pre-training, etc. Finally, we discussed the advantages and
limitations of ConvGRU in such action outcome prediction and fine-grained
action recognition tasks.
- Abstract(参考訳): 行動結果の予測は、人間との共同作業を行うロボットにとって新たな課題である。
近年、ビデオのアクション認識が著しく進歩し、ビデオデータからのきめ細かいアクション認識が新たな関心事となる。
きめ細かい行動認識は、より特定の粒度のアクションの微妙な違いを検知し、人間とロボットの相互作用、インテリジェントな交通管理、スポーツトレーニング、ヘルスケアなど多くの分野において重要である。
アクションの微妙な違いに異なる結果が密接に関連していることを考えると、きめ細かいアクション認識はアクション結果予測の実用的な方法である。
本稿では,細粒度動作認識タスクにおけるconvolutional gate recurrent unit (convgru) 法の性能について検討する。
人間の行動のRGB画像のシーケンスに基づいて、提案手法は79.17%の精度を実現した。
また、異なるネットワーク実装を比較し、異なる画像サンプリング方法、異なる融合方法、事前学習などの影響を示した。
最後に,行動結果予測や細粒度行動認識タスクにおけるconvgruの利点と限界について考察した。
関連論文リスト
- FinePseudo: Improving Pseudo-Labelling through Temporal-Alignablity for Semi-Supervised Fine-Grained Action Recognition [57.17966905865054]
実生活における行動認識の応用は、しばしば微妙な動きのきめ細かい理解を必要とする。
既存の半教師ありアクション認識は主に粗いアクション認識に焦点を当てている。
そこで我々は,微粒なアクションペアの識別を効果的に行うための,アライナビリティ検証に基づくメトリック学習手法を提案する。
論文 参考訳(メタデータ) (2024-09-02T20:08:06Z) - Bidirectional Decoding: Improving Action Chunking via Closed-Loop Resampling [51.38330727868982]
双方向デコーディング(BID)は、クローズドループ操作で動作チャンキングをブリッジするテスト時間推論アルゴリズムである。
BIDは、7つのシミュレーションベンチマークと2つの実世界のタスクにまたがって、最先端の2つの生成ポリシーの性能を向上させることを示す。
論文 参考訳(メタデータ) (2024-08-30T15:39:34Z) - Learning Manipulation by Predicting Interaction [85.57297574510507]
本稿では,インタラクションを予測して操作を学習する一般的な事前学習パイプラインを提案する。
実験の結果,MPIは従来のロボットプラットフォームと比較して10%から64%向上していることがわかった。
論文 参考訳(メタデータ) (2024-06-01T13:28:31Z) - Multi-view Action Recognition via Directed Gromov-Wasserstein Discrepancy [12.257725479880458]
行動認識はコンピュータビジョンにおける人気のある研究トピックの1つとなっている。
本稿では,アクションビデオの2つの異なる視点から2つの注意の類似性を計算する多視点アテンション整合性手法を提案する。
我々のアプローチでは、単一ビューデータセットのトレーニングにおいて、新しいビューからの機能を暗黙的にレンダリングするために、Neural Radiance Fieldというアイデアを適用しています。
論文 参考訳(メタデータ) (2024-05-02T14:43:21Z) - Unsupervised Learning of Effective Actions in Robotics [0.9374652839580183]
ロボット工学における現在の最先端のアクション表現は、ロボットのアクションに対する適切な効果駆動学習を欠いている。
連続運動空間の離散化と「アクションプロトタイプ」生成のための教師なしアルゴリズムを提案する。
シミュレーションされた階段登上補強学習課題について,本手法の評価を行った。
論文 参考訳(メタデータ) (2024-04-03T13:28:52Z) - DOAD: Decoupled One Stage Action Detection Network [77.14883592642782]
人々をローカライズし、ビデオからアクションを認識することは、ハイレベルなビデオ理解にとって難しい課題だ。
既存の手法は主に2段階ベースで、1段階は人物境界ボックス生成、もう1段階は行動認識を行う。
本稿では、時間的行動検出の効率を向上させるために、DOADと呼ばれる分離したワンステージネットワークを提案する。
論文 参考訳(メタデータ) (2023-04-01T08:06:43Z) - Few-Shot Fine-Grained Action Recognition via Bidirectional Attention and
Contrastive Meta-Learning [51.03781020616402]
現実世界のアプリケーションで特定のアクション理解の需要が高まっているため、きめ細かいアクション認識が注目を集めている。
そこで本研究では,各クラスに付与されるサンプル数だけを用いて,新規なきめ細かい動作を認識することを目的とした,数発のきめ細かな動作認識問題を提案する。
粒度の粗い動作では進展があったが、既存の数発の認識手法では、粒度の細かい動作を扱う2つの問題に遭遇する。
論文 参考訳(メタデータ) (2021-08-15T02:21:01Z) - Object and Relation Centric Representations for Push Effect Prediction [18.990827725752496]
プッシュは、プレグレープ操作からシーンアレンジメントまでのタスクに使用される、非包括的操作スキルである。
本稿では,プッシュ動作の効果予測とパラメータ推定のためのグラフニューラルネットワークに基づくフレームワークを提案する。
本フレームワークは,異なる種類の接合体と異なる質量を有する物体を介して接続された異なる形状の多部オブジェクトを含む実環境と模擬環境の両方で検証される。
論文 参考訳(メタデータ) (2021-02-03T15:09:12Z) - Recent Progress in Appearance-based Action Recognition [73.6405863243707]
アクション認識は、ビデオ内の様々な人間の行動を特定するタスクである。
最近の外見に基づく手法は、正確な行動認識に向けて有望な進歩を遂げている。
論文 参考訳(メタデータ) (2020-11-25T10:18:12Z) - Attention-Oriented Action Recognition for Real-Time Human-Robot
Interaction [11.285529781751984]
本稿では,リアルタイムインタラクションの必要性に応えるために,アテンション指向のマルチレベルネットワークフレームワークを提案する。
具体的には、プレアテンションネットワークを使用して、低解像度でシーン内のインタラクションに大まかにフォーカスする。
他のコンパクトCNNは、抽出されたスケルトンシーケンスをアクション認識用の入力として受信する。
論文 参考訳(メタデータ) (2020-07-02T12:41:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。