論文の概要: Top-1 CORSMAL Challenge 2020 Submission: Filling Mass Estimation Using
Multi-modal Observations of Human-robot Handovers
- arxiv url: http://arxiv.org/abs/2012.01311v1
- Date: Wed, 2 Dec 2020 16:31:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-30 06:45:04.336080
- Title: Top-1 CORSMAL Challenge 2020 Submission: Filling Mass Estimation Using
Multi-modal Observations of Human-robot Handovers
- Title(参考訳): Top-1 CORSMAL Challenge 2020 提出:人間ロボットハンドオーバのマルチモーダル観測による質量推定
- Authors: Vladimir Iashin, Francesca Palermo, G\"okhan Solak, Claudio Coppola
- Abstract要約: CORSMAL 2020 Challengeは、ロボットが人間によって保持される容器の充填質量を見積もる必要があるという問題の認識部分に焦点を当てている。
本稿では,充填量,充填量,容器容量の3つの重要な指標を予測するためのマルチモーダル手法を提案する。
提案手法は,CORSMAL 2020 Challengeにおける公立サブセットと私設サブセットの両方における全サブセットのうち,Top-1の総合的なパフォーマンスを得た。
- 参考スコア(独自算出の注目度): 4.760079434948198
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Human-robot object handover is a key skill for the future of human-robot
collaboration. CORSMAL 2020 Challenge focuses on the perception part of this
problem: the robot needs to estimate the filling mass of a container held by a
human. Although there are powerful methods in image processing and audio
processing individually, answering such a problem requires processing data from
multiple sensors together. The appearance of the container, the sound of the
filling, and the depth data provide essential information. We propose a
multi-modal method to predict three key indicators of the filling mass: filling
type, filling level, and container capacity. These indicators are then combined
to estimate the filling mass of a container. Our method obtained Top-1 overall
performance among all submissions to CORSMAL 2020 Challenge on both public and
private subsets while showing no evidence of overfitting. Our source code is
publicly available: https://github.com/v-iashin/CORSMAL
- Abstract(参考訳): 人間とロボットのオブジェクトハンドオーバは、人間とロボットのコラボレーションの鍵となるスキルである。
corsmal 2020 challengeは、この問題の認識部分に焦点を当てている。ロボットは人間が持っている容器の充填質量を見積もる必要がある。
画像処理とオーディオ処理には個別に強力な方法があるが、このような問題を解決するには複数のセンサーからのデータを処理する必要がある。
容器の外観、充填音、深度データは必須情報を提供する。
本稿では,充填量,充填量,容器容量の3つの重要な指標を予測するためのマルチモーダル手法を提案する。
これらの指標を組み合わせて容器の充填質量を推定する。
提案手法は,CORSMAL 2020 Challengeの公立サブセットと私設サブセットのいずれにおいても,オーバーフィットの証拠は示さなかった。
私たちのソースコードは、https://github.com/v-iashin/corsmal.com
関連論文リスト
- HRP: Human Affordances for Robotic Pre-Training [15.92416819748365]
本稿では,手,物,接触の事前学習のためのフレームワークを提案する。
実世界の5つのタスクにおいて、この空き時間事前学習がパフォーマンスを最低15%向上させることを実験的に実証した(3000以上のロボット試験を用いて)。
論文 参考訳(メタデータ) (2024-07-26T17:59:52Z) - RH20T: A Comprehensive Robotic Dataset for Learning Diverse Skills in
One-Shot [56.130215236125224]
オープンドメインでのロボット操作における重要な課題は、ロボットの多様性と一般化可能なスキルの獲得方法である。
単発模倣学習の最近の研究は、訓練されたポリシーを実証に基づく新しいタスクに移行する可能性を示唆している。
本稿では,エージェントがマルチモーダルな知覚で数百の現実世界のスキルを一般化する可能性を解き放つことを目的とする。
論文 参考訳(メタデータ) (2023-07-02T15:33:31Z) - HumanBench: Towards General Human-centric Perception with Projector
Assisted Pretraining [75.1086193340286]
汎用的な人中心下流作業のための一般的な事前訓練モデルを持つことが望ましい。
本研究では,既存のデータセットをベースとしたtextbfHumanBench を提案する。
我々のPATHは、17の下流データセットと他の2つのデータセットの中間結果に対して、最先端の新たな結果を達成する。
論文 参考訳(メタデータ) (2023-03-10T02:57:07Z) - Model Predictive Control for Fluid Human-to-Robot Handovers [50.72520769938633]
人間の快適さを考慮に入れた計画運動は、人間ロボットのハンドオーバプロセスの一部ではない。
本稿では,効率的なモデル予測制御フレームワークを用いてスムーズな動きを生成することを提案する。
ユーザ数名の多様なオブジェクトに対して,人間とロボットのハンドオーバ実験を行う。
論文 参考訳(メタデータ) (2022-03-31T23:08:20Z) - Container Localisation and Mass Estimation with an RGB-D Camera [2.5949039059957943]
操作された容器を検知し,その空の質量を推定するカメラベース手法を提案する。
CORSMAL Containers Manipulationデータセットの結果,提案手法は空のコンテナ質量を推定し,スコアは71.08%であった。
論文 参考訳(メタデータ) (2022-03-02T16:03:04Z) - Addressing Data Scarcity in Multimodal User State Recognition by
Combining Semi-Supervised and Supervised Learning [1.1688030627514532]
本稿では,人間とロボットの相互作用環境における解離・解離状態を検出するためのマルチモーダル機械学習手法を提案する。
我々は,少ないラベル付きデータと大きなラベル付きデータセットを用いて,デア/アグリメント検出のための平均F1スコア81.1%を達成する。
論文 参考訳(メタデータ) (2022-02-08T10:41:41Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Vision-driven Robotic
Grasping via Physics-based Metaverse Synthesis [78.26022688167133]
本稿では,物理に基づくメタバース合成による視覚駆動型ロボットグルーピングのための大規模ベンチマークデータセットを提案する。
提案するデータセットには,10万の画像と25種類のオブジェクトが含まれている。
また,オブジェクト検出とセグメンテーション性能を評価するためのデータセットとともに,新しいレイアウト重み付け性能指標を提案する。
論文 参考訳(メタデータ) (2021-12-29T17:23:24Z) - Where is my hand? Deep hand segmentation for visual self-recognition in
humanoid robots [129.46920552019247]
本稿では、画像からロボットの手を切り離すための畳み込みニューラルネットワーク(CNN)を提案する。
ヒューマノイドロボットVizzyの手のセグメンテーションのために,Mask-RCNNネットワークを微調整した。
論文 参考訳(メタデータ) (2021-02-09T10:34:32Z) - Batch Exploration with Examples for Scalable Robotic Reinforcement
Learning [63.552788688544254]
BEE(Batch Exploration with Examples)は、重要状態の画像の少ない数の人間がガイドする状態空間の関連領域を探索する。
BEEは、シミュレーションと本物のフランカロボットの両方で、視覚ベースの操作に挑戦することができる。
論文 参考訳(メタデータ) (2020-10-22T17:49:25Z) - Robust Robotic Pouring using Audition and Haptics [30.707253973680178]
MP-Netは、オーディションと触覚の両方の入力を条件付けすることで、液体の高さを頑健に予測することができる。
このデータセットには,3種類のターゲットコンテナに対する音声および力/トルク測定を備えた300個のロボットの注ぐ記録が含まれている。
論文 参考訳(メタデータ) (2020-02-29T20:24:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。