論文の概要: Intuitive Programming, Adaptive Task Planning, and Dynamic Role Allocation in Human-Robot Collaboration
- arxiv url: http://arxiv.org/abs/2511.08732v1
- Date: Thu, 13 Nov 2025 01:04:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-13 22:34:54.213562
- Title: Intuitive Programming, Adaptive Task Planning, and Dynamic Role Allocation in Human-Robot Collaboration
- Title(参考訳): ロボット協調における直感的プログラミング、適応的タスク計画、動的役割割当
- Authors: Marta Lagomarsino, Elena Merlo, Andrea Pupa, Timo Birr, Franziska Krebs, Cristian Secchi, Tamim Asfour, Arash Ajoudani,
- Abstract要約: このレビューでは、人間とロボット間の直感的な情報交換とスキル伝達を可能にする重要なコンポーネントを特定し、接続する。
マルチモーダル入力をロボットに理解可能な表現に変換する人間とロボットのコミュニケーションブリッジから、完全なインタラクションパイプラインについて検討する。
- 参考スコア(独自算出の注目度): 28.96294944351617
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Remarkable capabilities have been achieved by robotics and AI, mastering complex tasks and environments. Yet, humans often remain passive observers, fascinated but uncertain how to engage. Robots, in turn, cannot reach their full potential in human-populated environments without effectively modeling human states and intentions and adapting their behavior. To achieve a synergistic human-robot collaboration (HRC), a continuous information flow should be established: humans must intuitively communicate instructions, share expertise, and express needs. In parallel, robots must clearly convey their internal state and forthcoming actions to keep users informed, comfortable, and in control. This review identifies and connects key components enabling intuitive information exchange and skill transfer between humans and robots. We examine the full interaction pipeline: from the human-to-robot communication bridge translating multimodal inputs into robot-understandable representations, through adaptive planning and role allocation, to the control layer and feedback mechanisms to close the loop. Finally, we highlight trends and promising directions toward more adaptive, accessible HRC.
- Abstract(参考訳): 注目すべき機能は、ロボット工学とAIによって達成され、複雑なタスクや環境を習得する。
しかし、人間はしばしば受動的観察者であり、魅了されるが、どのように関与するかは定かではない。
ロボットは、人間の状態や意図を効果的にモデル化し、その行動に適応しない限り、人間の人口環境における潜在能力を最大限に発揮できない。
相乗的人間ロボット協調(HRC)を実現するためには、人間は直感的に指示を伝え、専門知識を共有し、ニーズを表現しなければならない。
並行して、ロボットは内部の状態と今後の行動を明確に伝えて、ユーザーの情報、快適さ、コントロールを維持する必要がある。
このレビューでは、人間とロボット間の直感的な情報交換とスキル伝達を可能にする重要なコンポーネントを特定し、接続する。
マルチモーダルな入力をロボットに理解可能な表現に変換する人間とロボットのコミュニケーションブリッジから、適応的な計画と役割割り当てを通じて、ループを閉じるための制御層とフィードバック機構まで、完全な相互作用パイプラインについて検討する。
最後に、より適応的でアクセシブルなHRCに向けたトレンドと有望な方向性を強調します。
関連論文リスト
- RHINO: Learning Real-Time Humanoid-Human-Object Interaction from Human Demonstrations [38.1742893736782]
RHINOは一般のヒューマノイド-ヒト-オブジェクト相互作用フレームワークである。
リアクティブモーション、命令ベースの操作、安全性に関する統一的なビューを提供する。
1)リアルタイムな人間の行動から人間の意図を推定するハイレベルプランナー,2)予測された意図に基づく反応行動とオブジェクト操作のスキルを達成する低レベルコントローラである。
論文 参考訳(メタデータ) (2025-02-18T18:56:41Z) - HARMONIC: Cognitive and Control Collaboration in Human-Robotic Teams [2.6627293764668902]
本稿では,人間ロボットチーム(HRT)に適用された汎用ロボット制御システムと,OntoAgent認知フレームワークを統合した認知ロボティックアーキテクチャについて述べる。
Harmonicはメタ認知、意味のある自然言語通信、HRTの相互信頼開発に必要な説明可能性を備えている。
論文 参考訳(メタデータ) (2024-09-26T16:48:21Z) - A Human-Robot Mutual Learning System with Affect-Grounded Language
Acquisition and Differential Outcomes Training [0.1812164955222814]
本稿では,ロボットのホメオスタティックなニーズを識別するための,人間とロボットのインタラクション・セットアップを提案する。
我々は,ロボットが内部ニーズに特有のフィードバックを提供する,差分結果学習プロトコルを採用した。
我々は、DOTが人間の学習効率を高めることができるという証拠を発見し、それによってより効率的なロボット言語習得を可能にした。
論文 参考訳(メタデータ) (2023-10-20T09:41:31Z) - Habitat 3.0: A Co-Habitat for Humans, Avatars and Robots [119.55240471433302]
Habitat 3.0は、家庭環境における協調ロボットタスクを研究するためのシミュレーションプラットフォームである。
複雑な変形可能な体と外観と運動の多様性をモデル化する際の課題に対処する。
Human-in-the-loopインフラストラクチャは、マウス/キーボードまたはVRインターフェースを介してシミュレーションされたロボットとの実際のヒューマンインタラクションを可能にする。
論文 参考訳(メタデータ) (2023-10-19T17:29:17Z) - HERD: Continuous Human-to-Robot Evolution for Learning from Human
Demonstration [57.045140028275036]
本研究では,マイクロ進化的強化学習を用いて,操作スキルを人間からロボットに伝達可能であることを示す。
本稿では,ロボットの進化経路とポリシーを協調的に最適化する多次元進化経路探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-12-08T15:56:13Z) - Semantic-Aware Environment Perception for Mobile Human-Robot Interaction [2.309914459672557]
本稿では,移動ロボットのための視覚ベースシステムについて,アプリオリ知識を付加せずにセマンティック・アウェア環境を実現する。
実世界のアプリケーションで我々の手法をテストすることができる移動型ヒューマノイドロボットにシステムをデプロイする。
論文 参考訳(メタデータ) (2022-11-07T08:49:45Z) - Robots with Different Embodiments Can Express and Influence Carefulness
in Object Manipulation [104.5440430194206]
本研究では,2つのロボットによるコミュニケーション意図による物体操作の知覚について検討する。
ロボットの動きを設計し,物体の搬送時に注意を喚起するか否かを判断した。
論文 参考訳(メタデータ) (2022-08-03T13:26:52Z) - Aligning Robot Representations with Humans [5.482532589225552]
主な問題は、ある環境で学んだ知識を別の環境に移す方法である。
我々は、人間が世界でシステム成功の究極的な評価者になるので、ロボットに重要なタスクの側面を伝えるのに最も適していると仮定する。
このアプローチをインタラクティブシステムの構築に利用し、高度な協調ロボットをより良く開発するための今後の方向性を提供する3つの分野を強調します。
論文 参考訳(メタデータ) (2022-05-15T15:51:05Z) - Synthesis and Execution of Communicative Robotic Movements with
Generative Adversarial Networks [59.098560311521034]
我々は、繊細な物体を操作する際に人間が採用するのと同じキネマティクス変調を2つの異なるロボットプラットフォームに転送する方法に焦点を当てる。
我々は、ロボットのエンドエフェクターが採用する速度プロファイルを、異なる特徴を持つ物体を輸送する際に人間が何をするかに触発されて調整する。
我々は、人体キネマティクスの例を用いて訓練され、それらを一般化し、新しい有意義な速度プロファイルを生成する、新しいジェネレーティブ・アドバイサル・ネットワークアーキテクチャを利用する。
論文 参考訳(メタデータ) (2022-03-29T15:03:05Z) - Spatial Computing and Intuitive Interaction: Bringing Mixed Reality and
Robotics Together [68.44697646919515]
本稿では,空間コンピューティングを応用し,新しいロボットのユースケースを実現するためのロボットシステムについて述べる。
空間コンピューティングとエゴセントリックな感覚を複合現実感デバイスに組み合わせることで、人間の行動をキャプチャして理解し、それらを空間的な意味を持つ行動に変換することができる。
論文 参考訳(メタデータ) (2022-02-03T10:04:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。