論文の概要: Simultaneous Learning from Human Pose and Object Cues for Real-Time
Activity Recognition
- arxiv url: http://arxiv.org/abs/2004.03453v1
- Date: Thu, 26 Mar 2020 22:04:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 22:07:05.800864
- Title: Simultaneous Learning from Human Pose and Object Cues for Real-Time
Activity Recognition
- Title(参考訳): リアルタイム行動認識のためのポーズと物体手がかりからの同時学習
- Authors: Brian Reily, Qingzhao Zhu, Christopher Reardon, and Hao Zhang
- Abstract要約: 本研究では,人間の行動にかかわるポーズや物体の観察から同時に学習することで,人間の行動認識に対する新しいアプローチを提案する。
提案手法は従来の手法より優れ,104Hzの処理速度で人間の行動認識のリアルタイム性能を得る。
- 参考スコア(独自算出の注目度): 11.290467061493189
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Real-time human activity recognition plays an essential role in real-world
human-centered robotics applications, such as assisted living and human-robot
collaboration. Although previous methods based on skeletal data to encode human
poses showed promising results on real-time activity recognition, they lacked
the capability to consider the context provided by objects within the scene and
in use by the humans, which can provide a further discriminant between human
activity categories. In this paper, we propose a novel approach to real-time
human activity recognition, through simultaneously learning from observations
of both human poses and objects involved in the human activity. We formulate
human activity recognition as a joint optimization problem under a unified
mathematical framework, which uses a regression-like loss function to integrate
human pose and object cues and defines structured sparsity-inducing norms to
identify discriminative body joints and object attributes. To evaluate our
method, we perform extensive experiments on two benchmark datasets and a
physical robot in a home assistance setting. Experimental results have shown
that our method outperforms previous methods and obtains real-time performance
for human activity recognition with a processing speed of 10^4 Hz.
- Abstract(参考訳): リアルタイムな人間活動認識は、生活支援や人間ロボットのコラボレーションなど、現実世界の人間中心ロボットアプリケーションにおいて重要な役割を果たす。
人間のポーズを符号化するための骨格データに基づく従来の手法は、リアルタイムな活動認識において有望な結果を示したが、シーン内のオブジェクトや人間の使用場面で提供されるコンテキストを考慮できないため、人間の活動カテゴリのさらなる識別が可能であった。
本稿では,人間の行動と行動に関わる物体の両方の観察から同時に学習することで,リアルタイムな人間の行動認識のための新しいアプローチを提案する。
本研究では,人間のポーズと物体の手がかりを統合する回帰的損失関数を用いて,身体関節と物体属性を識別するための構造的スパーシティ誘導ノルムを定義する統一数学的枠組みの下で,人間行動認識を共同最適化問題として定式化する。
提案手法を評価するため、2つのベンチマークデータセットと1つの物理ロボットをホームアシスト環境で広範囲に実験した。
実験の結果,提案手法は従来の手法よりも優れ,処理速度が10^4Hzの人間行動認識のリアルタイム性能が得られた。
関連論文リスト
- Visual-Geometric Collaborative Guidance for Affordance Learning [63.038406948791454]
本稿では,視覚的・幾何学的手がかりを取り入れた視覚・幾何学的協調学習ネットワークを提案する。
本手法は,客観的指標と視覚的品質の代表的なモデルより優れている。
論文 参考訳(メタデータ) (2024-10-15T07:35:51Z) - Aligning Human Motion Generation with Human Perceptions [51.831338643012444]
本研究では,大規模人間の知覚評価データセットであるMotionPerceptと,人間の動作批判モデルであるMotionCriticを導入することにより,ギャップを埋めるデータ駆動型アプローチを提案する。
我々の批評家モデルは、運動品質を評価するためのより正確な指標を提供しており、容易に運動生成パイプラインに統合することができる。
論文 参考訳(メタデータ) (2024-07-02T14:01:59Z) - Real-time Addressee Estimation: Deployment of a Deep-Learning Model on
the iCub Robot [52.277579221741746]
住所推定は、社会ロボットが人間とスムーズに対話するために必要なスキルである。
人間の知覚スキルにインスパイアされたディープラーニングモデルは、iCubロボットに設計、訓練、デプロイされる。
本研究では,人間-ロボットのリアルタイムインタラクションにおいて,そのような実装の手順とモデルの性能について述べる。
論文 参考訳(メタデータ) (2023-11-09T13:01:21Z) - Habitat 3.0: A Co-Habitat for Humans, Avatars and Robots [119.55240471433302]
Habitat 3.0は、家庭環境における協調ロボットタスクを研究するためのシミュレーションプラットフォームである。
複雑な変形可能な体と外観と運動の多様性をモデル化する際の課題に対処する。
Human-in-the-loopインフラストラクチャは、マウス/キーボードまたはVRインターフェースを介してシミュレーションされたロボットとの実際のヒューマンインタラクションを可能にする。
論文 参考訳(メタデータ) (2023-10-19T17:29:17Z) - Human Activity Recognition Using Cascaded Dual Attention CNN and
Bi-Directional GRU Framework [3.3721926640077795]
視覚に基づく人間の活動認識は、ビデオ分析領域において重要な研究領域の1つとして現れてきた。
本稿では,人間の行動認識における深部識別的空間的特徴と時間的特徴を利用した,計算的に効率的だが汎用的な空間時空間カスケードフレームワークを提案する。
提案手法は, 従来の動作認識手法と比較して, フレーム毎秒最大167倍の性能向上を実現している。
論文 参考訳(メタデータ) (2022-08-09T20:34:42Z) - Skeleton-Based Mutually Assisted Interacted Object Localization and
Human Action Recognition [111.87412719773889]
本研究では,骨格データに基づく「相互作用対象の局所化」と「人間の行動認識」のための共同学習フレームワークを提案する。
本手法は,人間の行動認識のための最先端の手法を用いて,最高の,あるいは競争的な性能を実現する。
論文 参考訳(メタデータ) (2021-10-28T10:09:34Z) - Scene-aware Generative Network for Human Motion Synthesis [125.21079898942347]
シーンと人間の動きの相互作用を考慮した新しい枠組みを提案する。
人間の動きの不確実性を考慮すると、このタスクを生成タスクとして定式化する。
我々は、人間の動きと文脈シーンとの整合性を強制するための識別器を備えた、GANに基づく学習アプローチを導出する。
論文 参考訳(メタデータ) (2021-05-31T09:05:50Z) - Human-Robot Team Coordination with Dynamic and Latent Human Task
Proficiencies: Scheduling with Learning Curves [0.0]
ロボットが人間のチームメイトの相対的な強みと学習能力を探索できる新しい資源調整手法を提案する。
我々は、最新の個人労働者の熟練度を発見しながら、頑健なスケジュールを作成し、評価する。
その結果,人間とロボットのコラボレーションには,探索に有利なスケジューリング戦略が有用であることが示唆された。
論文 参考訳(メタデータ) (2020-07-03T19:44:22Z) - Attention-Oriented Action Recognition for Real-Time Human-Robot
Interaction [11.285529781751984]
本稿では,リアルタイムインタラクションの必要性に応えるために,アテンション指向のマルチレベルネットワークフレームワークを提案する。
具体的には、プレアテンションネットワークを使用して、低解像度でシーン内のインタラクションに大まかにフォーカスする。
他のコンパクトCNNは、抽出されたスケルトンシーケンスをアクション認識用の入力として受信する。
論文 参考訳(メタデータ) (2020-07-02T12:41:28Z) - Human Activity Recognition based on Dynamic Spatio-Temporal Relations [10.635134217802783]
1つの人間の行動の記述と、連続する人間の行動の進化のモデル化は、人間の活動認識における2つの主要な問題である。
これら2つの課題に対処する人間行動認識手法を開発した。
論文 参考訳(メタデータ) (2020-06-29T15:49:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。