論文の概要: ProVox: Personalization and Proactive Planning for Situated Human-Robot Collaboration
- arxiv url: http://arxiv.org/abs/2506.12248v1
- Date: Fri, 13 Jun 2025 21:50:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:45.59819
- Title: ProVox: Personalization and Proactive Planning for Situated Human-Robot Collaboration
- Title(参考訳): ProVox: 位置決め型ロボットコラボレーションのためのパーソナライズとプロアクティブプランニング
- Authors: Jennifer Grannen, Siddharth Karamcheti, Blake Wulfe, Dorsa Sadigh,
- Abstract要約: 協調型ロボットは、パートナーの意図や好みに迅速に適応し、積極的に有用な行動を特定する必要がある。
ProVoxは、ロボットが個人の協力者に効率よくパーソナライズし、適応できる新しいフレームワークである。
分析の結果,メタプロンプトとプロアクティブの両方が重要であり,タスク完了時間が38.7%,ユーザ負担が31.9%減少した。
- 参考スコア(独自算出の注目度): 28.29030844693482
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Collaborative robots must quickly adapt to their partner's intent and preferences to proactively identify helpful actions. This is especially true in situated settings where human partners can continually teach robots new high-level behaviors, visual concepts, and physical skills (e.g., through demonstration), growing the robot's capabilities as the human-robot pair work together to accomplish diverse tasks. In this work, we argue that robots should be able to infer their partner's goals from early interactions and use this information to proactively plan behaviors ahead of explicit instructions from the user. Building from the strong commonsense priors and steerability of large language models, we introduce ProVox ("Proactive Voice"), a novel framework that enables robots to efficiently personalize and adapt to individual collaborators. We design a meta-prompting protocol that empowers users to communicate their distinct preferences, intent, and expected robot behaviors ahead of starting a physical interaction. ProVox then uses the personalized prompt to condition a proactive language model task planner that anticipates a user's intent from the current interaction context and robot capabilities to suggest helpful actions; in doing so, we alleviate user burden, minimizing the amount of time partners spend explicitly instructing and supervising the robot. We evaluate ProVox through user studies grounded in household manipulation tasks (e.g., assembling lunch bags) that measure the efficiency of the collaboration, as well as features such as perceived helpfulness, ease of use, and reliability. Our analysis suggests that both meta-prompting and proactivity are critical, resulting in 38.7% faster task completion times and 31.9% less user burden relative to non-active baselines. Supplementary material, code, and videos can be found at https://provox-2025.github.io.
- Abstract(参考訳): 協調型ロボットは、パートナーの意図や好みに迅速に適応し、積極的に有用な行動を特定する必要がある。
これは、人間のパートナーがロボットに新しいハイレベルな行動、視覚的概念、物理的なスキル(例えば、デモを通して)を継続的に教える場所において特に当てはまる。
本研究では,ロボットが早期対話からパートナーの目標を推測し,その情報を用いてユーザの明示的な指示に先立って行動計画を行うことを論じる。
大規模言語モデルの強いコモンセンスの先行と操舵性から構築したProVox(Proactive Voice)は,ロボットが個別の協力者に対して効率よくパーソナライズし適応することを可能にする新しいフレームワークである。
我々は、物理的相互作用を開始する前に、ユーザがそれぞれの好み、意図、期待されるロボットの振る舞いをコミュニケーションすることを可能にするメタプロンプトプロトコルを設計する。
ProVoxはパーソナライズされたプロンプトを使用して、ユーザの意図を現在のインタラクションコンテキストから予測するプロアクティブな言語モデルタスクプランナーを条件付け、有効なアクションを提案する。
本稿では,協調作業の効率を計測するホーム操作タスク(例えば昼食袋を組み立てるなど)を基礎としたユーザスタディを通じてProVoxを評価するとともに,有用性,使いやすさ,信頼性などの特徴も評価した。
分析の結果,メタプロンプトとプロアクティブの両方が重要であり,タスク完了時間の38.7%,非アクティブベースラインに対するユーザの負担が31.9%減少した。
追加資料、コード、ビデオはhttps://provox-2025.github.io.comで見ることができる。
関連論文リスト
- Vocal Sandbox: Continual Learning and Adaptation for Situated Human-Robot Collaboration [64.6107798750142]
Vocal Sandboxは、位置のある環境でシームレスな人間とロボットのコラボレーションを可能にするフレームワークである。
我々は,ロボットの能力に対する理解と協調をリアルタイムで構築できる軽量で解釈可能な学習アルゴリズムを設計する。
我々はVocal Sandboxを,コラボレーションギフトバッグアセンブリとLEGOストップモーションアニメーションの2つの設定で評価した。
論文 参考訳(メタデータ) (2024-11-04T20:44:40Z) - Real-time Addressee Estimation: Deployment of a Deep-Learning Model on
the iCub Robot [52.277579221741746]
住所推定は、社会ロボットが人間とスムーズに対話するために必要なスキルである。
人間の知覚スキルにインスパイアされたディープラーニングモデルは、iCubロボットに設計、訓練、デプロイされる。
本研究では,人間-ロボットのリアルタイムインタラクションにおいて,そのような実装の手順とモデルの性能について述べる。
論文 参考訳(メタデータ) (2023-11-09T13:01:21Z) - Proactive Human-Robot Interaction using Visuo-Lingual Transformers [0.0]
人間は人間の相互作用を通して文脈を推測するために、潜伏したビスオ・言語的手がかりを抽出する能力を持っている。
本研究では,シーンからの視覚的手がかり,ユーザからの言語コマンド,事前オブジェクト間相互作用の知識を用いて,ユーザが達成しようとしている目標を積極的に予測する学習手法を提案する。
論文 参考訳(メタデータ) (2023-10-04T00:50:21Z) - Proceeding of the 1st Workshop on Social Robots Personalisation At the
crossroads between engineering and humanities (CONCATENATE) [37.838596863193565]
本ワークショップは,ロボット工学におけるパーソナライゼーションに関する学際的な議論を提起することを目的としている。
異なる分野の研究者を集結させ、パーソナライズのためのガイドラインを提案することを目的としている。
論文 参考訳(メタデータ) (2023-07-10T11:11:24Z) - Self-Improving Robots: End-to-End Autonomous Visuomotor Reinforcement
Learning [54.636562516974884]
模倣と強化学習において、人間の監督コストは、ロボットが訓練できるデータの量を制限する。
本研究では,自己改善型ロボットシステムのための新しい設計手法であるMEDAL++を提案する。
ロボットは、タスクの実施と解除の両方を学ぶことで、自律的にタスクを練習し、同時にデモンストレーションから報酬関数を推論する。
論文 参考訳(メタデータ) (2023-03-02T18:51:38Z) - iRoPro: An interactive Robot Programming Framework [2.7651063843287718]
iRoProを使うと、技術的背景がほとんど、あるいは全くないユーザーが、ロボットに新しい再利用可能なアクションを教えることができる。
バクスター研究ロボット上で,iRoProをエンドツーエンドシステムとして実装する。
論文 参考訳(メタデータ) (2021-12-08T13:53:43Z) - Show Me What You Can Do: Capability Calibration on Reachable Workspace
for Human-Robot Collaboration [83.4081612443128]
本稿では,REMPを用いた短時間キャリブレーションにより,ロボットが到達できると考える非専門家と地道とのギャップを効果的に埋めることができることを示す。
この校正手順は,ユーザ認識の向上だけでなく,人間とロボットのコラボレーションの効率化にも寄与することを示す。
論文 参考訳(メタデータ) (2021-03-06T09:14:30Z) - Joint Mind Modeling for Explanation Generation in Complex Human-Robot
Collaborative Tasks [83.37025218216888]
本稿では,人間とロボットのコラボレーションにおいて,人間のようなコミュニケーションを実現するための新しい説明可能なAI(XAI)フレームワークを提案する。
ロボットは、人間のユーザの階層的なマインドモデルを構築し、コミュニケーションの一形態として自身のマインドの説明を生成する。
その結果,提案手法はロボットの協調動作性能とユーザ認識を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2020-07-24T23:35:03Z) - Supportive Actions for Manipulation in Human-Robot Coworker Teams [15.978389978586414]
我々は、将来の干渉を減らすことで相互作用を支援する行動を、支援ロボット行動と表現する。
1)タスク指向: ロボットは自身のタスク目標をさらに進めるためにのみ行動を取るし、(2)支援的: ロボットはタスク指向のタスクよりも支援的行動を好む。
シミュレーション実験では, 人体モデルを用いて, エージェント間の干渉を軽減し, 作業の完了に要する時間が長いことを明らかにした。
論文 参考訳(メタデータ) (2020-05-02T09:37:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。