論文の概要: CARPE-ID: Continuously Adaptable Re-identification for Personalized
Robot Assistance
- arxiv url: http://arxiv.org/abs/2310.19413v2
- Date: Wed, 31 Jan 2024 14:31:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-01 17:27:07.571429
- Title: CARPE-ID: Continuously Adaptable Re-identification for Personalized
Robot Assistance
- Title(参考訳): CARPE-ID: 個人化ロボット支援のための連続適応型再識別
- Authors: Federico Rollo, Andrea Zunino, Nikolaos Tsagarakis, Enrico Mingo
Hoffman, Arash Ajoudani
- Abstract要約: 今日のHuman-Robot Interaction(HRI)のシナリオでは、ロボットが最も近い個人と協力する必要があると仮定する傾向が一般的である。
連続的な視覚適応技術に基づく人物識別モジュールを提案する。
実験室環境におけるビデオ記録と,移動ロボットによるHRIシナリオを用いて,このフレームワークを単体でテストする。
- 参考スコア(独自算出の注目度): 16.948256303861022
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In today's Human-Robot Interaction (HRI) scenarios, a prevailing tendency
exists to assume that the robot shall cooperate with the closest individual or
that the scene involves merely a singular human actor. However, in realistic
scenarios, such as shop floor operations, such an assumption may not hold and
personalized target recognition by the robot in crowded environments is
required. To fulfil this requirement, in this work, we propose a person
re-identification module based on continual visual adaptation techniques that
ensure the robot's seamless cooperation with the appropriate individual even
subject to varying visual appearances or partial or complete occlusions. We
test the framework singularly using recorded videos in a laboratory environment
and an HRI scenario, i.e., a person-following task by a mobile robot. The
targets are asked to change their appearance during tracking and to disappear
from the camera field of view to test the challenging cases of occlusion and
outfit variations. We compare our framework with one of the state-of-the-art
Multi-Object Tracking (MOT) methods and the results show that the CARPE-ID can
accurately track each selected target throughout the experiments in all the
cases (except two limit cases). At the same time, the s-o-t-a MOT has a mean of
4 tracking errors for each video.
- Abstract(参考訳): 今日のHuman-Robot Interaction(HRI)のシナリオでは、ロボットが最も近い個人と協力するか、あるいはシーンがただの人間アクターを含んでいると仮定する傾向が一般的である。
しかし,店舗のフロア操作のような現実的なシナリオでは,そのような仮定は保持されず,混み合った環境でロボットがターゲット認識を行う必要がある。
この要件を満たすために,本研究では,ロボットが適切な個人とシームレスに協調し,視覚的な外観や部分的,あるいは完全な咬合を受けることを保証する,連続的な視覚適応技術に基づく人物再識別モジュールを提案する。
実験室で記録されたビデオとHRIシナリオ,すなわち移動ロボットによる人物追従タスクを用いて,このフレームワークを単体でテストする。
ターゲットは追跡中の外観を変え、カメラの視野から消えて、閉塞や服装のバリエーションの難しいケースをテストするように求められます。
提案手法を最先端マルチオブジェクトトラッキング (mot) 法と比較し, 全事例において, carpe-id が選択した各ターゲットを正確に追跡できることを示した。
同時に、s-o-t-a MOTはビデオ毎に4つのトラッキングエラーがある。
関連論文リスト
- Revisit Human-Scene Interaction via Space Occupancy [59.732387568308816]
HSI(Human-Scene Interaction)の生成は、さまざまな下流タスクに不可欠な課題である。
本研究では,シーンとのインタラクションが,抽象的な物理的視点からシーンの空間占有と本質的に相互作用していることを論じる。
純粋な動きシーケンスを、見えないシーン占有と相互作用する人間の記録として扱うことで、動きのみのデータを大規模にペア化された人間-占有相互作用データベースに集約することができる。
論文 参考訳(メタデータ) (2023-12-05T12:03:00Z) - FollowMe: a Robust Person Following Framework Based on Re-Identification
and Gestures [12.850149165791551]
HRI(Human-robot Interaction)は、住宅や産業において、操作の柔軟性を促進するための重要な手段となっている。
本研究では,ロボットが対象者を識別・追跡できる統合認識・ナビゲーション・フレームワークを開発した。
Re-IDモジュールは、対象者の特徴を自律的に学習し、取得した知識を使用してターゲットを視覚的に再識別する。
論文 参考訳(メタデータ) (2023-11-21T20:59:27Z) - Learning Video-Conditioned Policies for Unseen Manipulation Tasks [83.2240629060453]
ビデオ条件付きポリシー学習は、以前は目に見えないタスクの人間のデモをロボット操作スキルにマッピングする。
我々は,現在のシーン観察と対象課題のビデオから適切なアクションを生成するためのポリシーを学習する。
われわれは,多タスクロボット操作環境の課題と,技術面における性能の面から,そのアプローチを検証した。
論文 参考訳(メタデータ) (2023-05-10T16:25:42Z) - Affordances from Human Videos as a Versatile Representation for Robotics [31.248842798600606]
我々は、人間がどこでどのように対話するかを推定する視覚的余裕モデルを訓練する。
これらの行動割当の構造は、ロボットが多くの複雑なタスクを直接実行できるようにする。
私たちは、VRBと呼ばれる4つの現実世界環境、10以上のタスクと2つのロボットプラットフォームにおいて、私たちのアプローチの有効性を示します。
論文 参考訳(メタデータ) (2023-04-17T17:59:34Z) - Scene Editing as Teleoperation: A Case Study in 6DoF Kit Assembly [18.563562557565483]
遠隔操作によるシーン編集(SEaT)の枠組みを提案する。
ロボットを制御する代わりに、ユーザーはタスクのゴールを指定することに集中する。
ユーザは、ロボットハードウェアの専門知識を必要とせずに遠隔操作を行うことができる。
論文 参考訳(メタデータ) (2021-10-09T04:22:21Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z) - Learning Generalizable Robotic Reward Functions from "In-The-Wild" Human
Videos [59.58105314783289]
ドメインに依存しないビデオ識別器(DVD)は、2つのビデオが同じタスクを実行しているかどうかを判断するために識別器を訓練することによりマルチタスク報酬関数を学習する。
DVDは、人間のビデオの広いデータセットで少量のロボットデータから学習することで、一般化することができる。
DVDと視覚モデル予測制御を組み合わせることで、実際のWidowX200ロボットのロボット操作タスクを単一の人間のデモから未知の環境で解決できます。
論文 参考訳(メタデータ) (2021-03-31T05:25:05Z) - Few-Shot Visual Grounding for Natural Human-Robot Interaction [0.0]
本稿では,人間ユーザによって音声で示される,混み合ったシーンから対象物を分割するソフトウェアアーキテクチャを提案する。
システムのコアでは、視覚的な接地のためにマルチモーダルディープニューラルネットワークを使用します。
公開シーンデータセットから収集した実RGB-Dデータに対して,提案モデルの性能を評価する。
論文 参考訳(メタデータ) (2021-03-17T15:24:02Z) - Where is my hand? Deep hand segmentation for visual self-recognition in
humanoid robots [129.46920552019247]
本稿では、画像からロボットの手を切り離すための畳み込みニューラルネットワーク(CNN)を提案する。
ヒューマノイドロボットVizzyの手のセグメンテーションのために,Mask-RCNNネットワークを微調整した。
論文 参考訳(メタデータ) (2021-02-09T10:34:32Z) - One-Shot Informed Robotic Visual Search in the Wild [29.604267552742026]
本研究では,環境モニタリングのための映像データ収集を目的とした水中ロボットナビゲーションの課題について考察する。
現在、フィールドロボットの大多数は、未構造化の自然環境における監視タスクを実行しており、経路追跡を通じて、指定された経路ポイントのシーケンスをナビゲートしている。
そこで本研究では,ロボットの視覚的探索を視覚的類似度演算子を用いて視覚的ナビゲーションを実現する手法を提案する。
論文 参考訳(メタデータ) (2020-03-22T22:14:42Z) - Learning Predictive Models From Observation and Interaction [137.77887825854768]
世界との相互作用から予測モデルを学ぶことで、ロボットのようなエージェントが世界がどのように働くかを学ぶことができる。
しかし、複雑なスキルのダイナミクスを捉えるモデルを学ぶことは大きな課題である。
本研究では,人間などの他のエージェントの観察データを用いて,トレーニングセットを増強する手法を提案する。
論文 参考訳(メタデータ) (2019-12-30T01:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。