論文の概要: A Multimodal Handover Failure Detection Dataset and Baselines
- arxiv url: http://arxiv.org/abs/2402.18319v1
- Date: Wed, 28 Feb 2024 13:29:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-29 14:55:28.935070
- Title: A Multimodal Handover Failure Detection Dataset and Baselines
- Title(参考訳): マルチモーダルハンドオーバ障害検出データセットとベースライン
- Authors: Santosh Thoduka and Nico Hochgeschwender and Juergen Gall and Paul G.
Pl\"oger
- Abstract要約: ロボットと人間の間のオブジェクトハンドオーバは、失敗しがちな協調アクションである。
人間の参加による予防不可能な失敗を考慮に入れたデータセットや評価方法が欠如している。
本稿では,人間によって誘導される障害からなるマルチモーダルハンドオーバエラー検出データセットを提案する。
また、3次元CNNを用いたビデオ分類法と、時間的アクションセグメンテーション法という、ハンドオーバ障害検出のための2つのベースライン手法を提案する。
- 参考スコア(独自算出の注目度): 17.275331315425476
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: An object handover between a robot and a human is a coordinated action which
is prone to failure for reasons such as miscommunication, incorrect actions and
unexpected object properties. Existing works on handover failure detection and
prevention focus on preventing failures due to object slip or external
disturbances. However, there is a lack of datasets and evaluation methods that
consider unpreventable failures caused by the human participant. To address
this deficit, we present the multimodal Handover Failure Detection dataset,
which consists of failures induced by the human participant, such as ignoring
the robot or not releasing the object. We also present two baseline methods for
handover failure detection: (i) a video classification method using 3D CNNs and
(ii) a temporal action segmentation approach which jointly classifies the human
action, robot action and overall outcome of the action. The results show that
video is an important modality, but using force-torque data and gripper
position help improve failure detection and action segmentation accuracy.
- Abstract(参考訳): ロボットと人間の間のオブジェクトハンドオーバ(object handover)は、誤ったコミュニケーション、誤ったアクション、予期しないオブジェクト特性などの理由で失敗しやすい、協調したアクションである。
既存の作業では、オブジェクトスリップや外部の障害による障害の検出と防止に重点を置いている。
しかし、人間による予防不可能な失敗を考慮に入れたデータセットや評価方法が欠如している。
この欠陥に対処するために,ロボットを無視したり,オブジェクトを解放しないなど,人間参加者によって引き起こされる障害からなるマルチモーダルハンドオーバ障害検出データセットを提案する。
また,ハンドオーバ障害検出のための2つのベースライン手法を提案する。
(i)3d cnnを用いた映像分類法
(ii)人間の行動、ロボット行動、行動の全体的成果を共同で分類する時間的行動分断アプローチ。
その結果、ビデオは重要なモダリティであるが、力トルクデータとグリップ位置を用いることで、故障検出とアクションセグメンテーションの精度が向上することがわかった。
関連論文リスト
- Uncertainty Estimation for 3D Object Detection via Evidential Learning [63.61283174146648]
本稿では,3次元検出器における鳥の視線表示における明らかな学習損失を利用して,3次元物体検出の不確かさを定量化するためのフレームワークを提案する。
本研究では,これらの不確実性評価の有効性と重要性を,分布外シーンの特定,局所化の不十分な物体の発見,および(偽陰性)検出の欠如について示す。
論文 参考訳(メタデータ) (2024-10-31T13:13:32Z) - Run-time Introspection of 2D Object Detection in Automated Driving
Systems Using Learning Representations [13.529124221397822]
ディープニューラルネットワーク(DNN)に基づく2次元物体検出のための新しいイントロスペクションソリューションを提案する。
KITTIとBDDのデータセットで評価された1段階および2段階のオブジェクト検出器を用いて,2次元オブジェクト検出におけるエラー検出のためのSOTAイントロスペクション機構を実装した。
性能評価の結果,提案手法はSOTA法より優れており,BDDデータセットのエラー率を9%から17%まで絶対的に削減できることがわかった。
論文 参考訳(メタデータ) (2024-03-02T10:56:14Z) - HODN: Disentangling Human-Object Feature for HOI Detection [51.48164941412871]
本稿では,Human and Object Disentangling Network (HODN) を提案し,Human-Object Interaction (HOI) の関係を明示的にモデル化する。
インタラクションに人間的特徴がより寄与していることを考慮し,インタラクションデコーダが人間中心の領域に焦点を当てていることを確認するためのヒューマンガイドリンク手法を提案する。
提案手法は,V-COCOとHICO-Det Linkingデータセットの競合性能を実現する。
論文 参考訳(メタデータ) (2023-08-20T04:12:50Z) - FROD: Robust Object Detection for Free [1.8139771201780368]
最先端の物体検出器は、小さな敵の摂動に影響を受けやすい。
対象検出における頑健性を高めるために,分類に基づくバックボーンの変更を提案する。
論文 参考訳(メタデータ) (2023-08-03T17:31:22Z) - Distributional Instance Segmentation: Modeling Uncertainty and High
Confidence Predictions with Latent-MaskRCNN [77.0623472106488]
本稿では,潜在符号を用いた分散インスタンス分割モデルのクラスについて検討する。
ロボットピッキングへの応用として,高い精度を実現するための信頼性マスク手法を提案する。
本手法は,新たにリリースした曖昧なシーンのデータセットを含め,ロボットシステムにおける致命的なエラーを著しく低減できることを示す。
論文 参考訳(メタデータ) (2023-05-03T05:57:29Z) - Goal-conditioned dual-action imitation learning for dexterous dual-arm robot manipulation [4.717749411286867]
バナナの皮剥きなどの変形可能な物体の長い水平デキスタスロボット操作は問題となる課題である。
本稿では,目標条件付きデュアルアクション・ディープ・模倣学習(DIL)アプローチを提案する。
論文 参考訳(メタデータ) (2022-03-18T05:17:00Z) - Active Learning of Neural Collision Handler for Complex 3D Mesh
Deformations [68.0524382279567]
3次元変形メッシュにおける衝突の検出と処理を行う頑健な学習アルゴリズムを提案する。
提案手法は教師あり学習法より優れ, 精度は93.8-98.1%である。
論文 参考訳(メタデータ) (2021-10-08T04:08:31Z) - INVIGORATE: Interactive Visual Grounding and Grasping in Clutter [56.00554240240515]
INVIGORATEは、自然言語で人間と対話し、特定の物体をクラッタで把握するロボットシステムである。
我々は、物体検出、視覚的接地、質問生成、OBR検出と把握のために、別々のニューラルネットワークを訓練する。
我々は、学習したニューラルネットワークモジュールを統合する、部分的に観測可能なマルコフ決定プロセス(POMDP)を構築します。
論文 参考訳(メタデータ) (2021-08-25T07:35:21Z) - Towards unconstrained joint hand-object reconstruction from RGB videos [81.97694449736414]
ハンドオブジェクト操作の再構築は、ロボット工学と人間のデモから学ぶ大きな可能性を秘めている。
まず,手動物体の相互作用をシームレスに処理できる学習不要な手動物体再構成手法を提案する。
論文 参考訳(メタデータ) (2021-08-16T12:26:34Z) - Human Object Interaction Detection using Two-Direction Spatial
Enhancement and Exclusive Object Prior [28.99655101929647]
Human-Object Interaction (HOI) 検出は、画像中の人間とオブジェクトの視覚的関係を検出することを目的とする。
非インタラクティブな人-物対は、容易に誤分類され、アクションとして分類される。
本論文では, 空間的制約を2方向から強化する空間拡張手法を提案する。
論文 参考訳(メタデータ) (2021-05-07T07:18:27Z) - FaultFace: Deep Convolutional Generative Adversarial Network (DCGAN)
based Ball-Bearing Failure Detection Method [4.543665832042712]
本稿では,回転軸用ボールベアリング接合部の故障検出のためのFaultFace法を提案する。
Deep Convolutional Generative Adversarial Networkは、バランスの取れたデータセットを得るために、名目と失敗の振る舞いの新しいフェイスポートを作成するために使用される。
論文 参考訳(メタデータ) (2020-07-30T06:37:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。