論文の概要: Audio-Visual Object Classification for Human-Robot Collaboration
- arxiv url: http://arxiv.org/abs/2203.01977v1
- Date: Thu, 3 Mar 2022 19:37:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-08 04:15:14.588575
- Title: Audio-Visual Object Classification for Human-Robot Collaboration
- Title(参考訳): 人間-ロボット協調のためのオーディオ・ビジュアルオブジェクト分類
- Authors: A. Xompero, Y. L. Pang, T. Patten, A. Prabhakar, B. Calli, A.
Cavallaro
- Abstract要約: 本稿では,アルゴリズムの性能を評価するために,CORSMALチャレンジとデータセットを提案する。
課題のタスクは、物体の質量、容量、寸法を推定することである。
この課題の新たな特徴は、人間とロボットのハンドオーバにおける推定エラーの影響を可視化し、評価するための実シミュレーションフレームワークである。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human-robot collaboration requires the contactless estimation of the physical
properties of containers manipulated by a person, for example while pouring
content in a cup or moving a food box. Acoustic and visual signals can be used
to estimate the physical properties of such objects, which may vary
substantially in shape, material and size, and also be occluded by the hands of
the person. To facilitate comparisons and stimulate progress in solving this
problem, we present the CORSMAL challenge and a dataset to assess the
performance of the algorithms through a set of well-defined performance scores.
The tasks of the challenge are the estimation of the mass, capacity, and
dimensions of the object (container), and the classification of the type and
amount of its content. A novel feature of the challenge is our
real-to-simulation framework for visualising and assessing the impact of
estimation errors in human-to-robot handovers.
- Abstract(参考訳): 人間とロボットのコラボレーションは、例えばカップにコンテンツを注いだり、フードボックスを動かしたりしながら、人が操作するコンテナの物理的特性を接触なく推定する必要がある。
音響信号や視覚信号は、その物体の物理的特性を推定するために使用され、その物体は、形状、材料、大きさに大きく異なり、また人の手によっても遮られる。
そこで本研究では,本課題におけるcorsmal challenge (corsmal challenge) とdataset (dataset) を用いて,アルゴリズムの性能評価を行う。
課題のタスクは、オブジェクト(コンテナ)の質量、容量、寸法の推定と、その内容のタイプと量を分類することである。
この課題の新たな特徴は,人間-ロボット間ハンドオーバにおける推定誤差の影響を可視化し評価するためのシミュレーションフレームワークである。
関連論文リスト
- Visual-Geometric Collaborative Guidance for Affordance Learning [63.038406948791454]
本稿では,視覚的・幾何学的手がかりを取り入れた視覚・幾何学的協調学習ネットワークを提案する。
本手法は,客観的指標と視覚的品質の代表的なモデルより優れている。
論文 参考訳(メタデータ) (2024-10-15T07:35:51Z) - Dataset Bias in Human Activity Recognition [57.91018542715725]
このコントリビューションは、トレーニングデータを統計的にキュレートし、人間の身体的特性がHARのパフォーマンスにどの程度影響するかを評価する。
時系列HARのセンサ,アクティビティ,記録の異なる2つのHARデータセット上で,最先端の畳み込みニューラルネットワークの性能を評価する。
論文 参考訳(メタデータ) (2023-01-19T12:33:50Z) - Full-Body Articulated Human-Object Interaction [61.01135739641217]
CHAIRSは16.2時間の多目的相互作用からなる大規模な動きキャプチャーされたf-AHOIデータセットである。
CHAIRSは、対話的なプロセス全体を通して、人間と明瞭なオブジェクトの両方の3Dメッシュを提供する。
HOIにおける幾何学的関係を学習することにより,人間のポーズ推定を利用した最初のモデルが考案された。
論文 参考訳(メタデータ) (2022-12-20T19:50:54Z) - Learn to Predict How Humans Manipulate Large-sized Objects from
Interactive Motions [82.90906153293585]
本稿では,動きデータと動的記述子を融合させるグラフニューラルネットワークHO-GCNを提案する。
動的記述子を消費するネットワークは、最先端の予測結果が得られ、未確認オブジェクトへのネットワークの一般化に役立つことを示す。
論文 参考訳(メタデータ) (2022-06-25T09:55:39Z) - Data-driven emotional body language generation for social robotics [58.88028813371423]
社会ロボティクスでは、人間型ロボットに感情の身体的表現を生成する能力を与えることで、人間とロボットの相互作用とコラボレーションを改善することができる。
我々は、手作業で設計されたいくつかの身体表現から学習する深層学習データ駆動フレームワークを実装した。
評価実験の結果, 生成した表現の人間同型とアニマシーは手作りの表現と異なる認識が得られなかった。
論文 参考訳(メタデータ) (2022-05-02T09:21:39Z) - Capturing the objects of vision with neural networks [0.0]
人間の視覚知覚はその物理的関節でシーンを彫り、世界をオブジェクトに分解する。
対照的に、視覚物体認識のディープニューラルネットワーク(DNN)モデルは、主に感覚入力と結びついている。
両分野の関連研究をレビューし、これらの分野が相互にどのように役立つかを検討する。
論文 参考訳(メタデータ) (2021-09-07T21:49:53Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z) - Human and Machine Action Prediction Independent of Object Information [1.0806206850043696]
行動中に変化する物体間関係の役割について検討する。
我々は平均して、アクションの持続時間の64%以下で行動を予測する。
論文 参考訳(メタデータ) (2020-04-22T12:13:25Z) - Simultaneous Learning from Human Pose and Object Cues for Real-Time
Activity Recognition [11.290467061493189]
本研究では,人間の行動にかかわるポーズや物体の観察から同時に学習することで,人間の行動認識に対する新しいアプローチを提案する。
提案手法は従来の手法より優れ,104Hzの処理速度で人間の行動認識のリアルタイム性能を得る。
論文 参考訳(メタデータ) (2020-03-26T22:04:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。