論文の概要: Moving Out: Physically-grounded Human-AI Collaboration
- arxiv url: http://arxiv.org/abs/2507.18623v1
- Date: Thu, 24 Jul 2025 17:57:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-25 15:10:44.232213
- Title: Moving Out: Physically-grounded Human-AI Collaboration
- Title(参考訳): 動き出す: 物理的に座った人間とAIのコラボレーション
- Authors: Xuhui Kang, Sung-Wook Lee, Haolin Liu, Yuyan Wang, Yen-Ling Kuo,
- Abstract要約: 我々は、新しい人間-AIコラボレーションベンチマークであるtextitMoving Outを紹介した。
我々は、多様な人間の行動に適応するモデルの能力と、見えない物理的特性を評価する。
我々の実験によると、BASSはAI-AIと人間-AIのコラボレーションにおいて最先端のモデルよりも優れています。
- 参考スコア(独自算出の注目度): 10.515976351631666
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The ability to adapt to physical actions and constraints in an environment is crucial for embodied agents (e.g., robots) to effectively collaborate with humans. Such physically grounded human-AI collaboration must account for the increased complexity of the continuous state-action space and constrained dynamics caused by physical constraints. In this paper, we introduce \textit{Moving Out}, a new human-AI collaboration benchmark that resembles a wide range of collaboration modes affected by physical attributes and constraints, such as moving heavy items together and maintaining consistent actions to move a big item around a corner. Using Moving Out, we designed two tasks and collected human-human interaction data to evaluate models' abilities to adapt to diverse human behaviors and unseen physical attributes. To address the challenges in physical environments, we propose a novel method, BASS (Behavior Augmentation, Simulation, and Selection), to enhance the diversity of agents and their understanding of the outcome of actions. Our experiments show that BASS outperforms state-of-the-art models in AI-AI and human-AI collaboration. The project page is available at \href{https://live-robotics-uva.github.io/movingout_ai/}{https://live-robotics-uva.github.io/movingout\_ai/}.
- Abstract(参考訳): 環境における物理的な行動や制約に適応する能力は、人間と効果的に協力するエンボディエージェント(例えばロボット)にとって不可欠である。
このような物理的基盤を持つ人間とAIのコラボレーションは、物理的な制約によって引き起こされる連続的な状態-作用空間と制約されたダイナミクスの複雑さの増加を考慮しなければならない。
本稿では,重項目の移動や一貫した動作の維持など,物理的な属性や制約によって影響を受ける幅広いコラボレーションモードに類似した,新たな人間とAIのコラボレーションベンチマークである「textit{Moving Out}」を紹介する。
move Outを使って2つのタスクを設計し、モデルと人間のインタラクションデータを収集し、多様な人間の振る舞いと見えない物理的属性に適応する能力を評価した。
身体環境における課題に対処するため,エージェントの多様性と行動結果の理解を高めるため,BASS(Behavior Augmentation, Simulation, Selection)という新しい手法を提案する。
我々の実験によると、BASSはAI-AIと人間-AIのコラボレーションにおいて最先端のモデルよりも優れています。
プロジェクトページは \href{https://live-robotics-uva.github.io/movingout_ai/}{https://live-robotics-uva.github.io/movingout\_ai/} で公開されている。
関連論文リスト
- Towards Immersive Human-X Interaction: A Real-Time Framework for Physically Plausible Motion Synthesis [51.95817740348585]
Human-Xは、様々な実体をまたいだ没入的で物理的に妥当なヒューマンインタラクションを可能にするために設計された、新しいフレームワークである。
本手法は, 自己回帰型反応拡散プランナを用いて, リアルタイムに反応と反応を同時予測する。
我々のフレームワークは、人間とロボットのインタラクションのための仮想現実インターフェースを含む、現実世界のアプリケーションで検証されている。
論文 参考訳(メタデータ) (2025-08-04T06:35:48Z) - 3HANDS Dataset: Learning from Humans for Generating Naturalistic Handovers with Supernumerary Robotic Limbs [64.99122701615151]
スーパー数式ロボットアーム(英: Supernumerary Robotics limbs、SRL)は、ユーザーの身体と密に統合されたロボット構造である。
3HANDSは,日常活動を行う参加者と,ヒップマウントSRLを自然な方法で実施する参加者との間の,オブジェクトハンドオーバインタラクションの新たなデータセットである。
本稿では,自然なハンドオーバ軌跡を生成する3つのモデル,適切なハンドオーバエンドポイントを決定する1つのモデル,ハンドオーバ開始のタイミングを予測する3つのモデルを提案する。
論文 参考訳(メタデータ) (2025-03-06T17:23:55Z) - ASAP: Aligning Simulation and Real-World Physics for Learning Agile Humanoid Whole-Body Skills [46.16771391136412]
ASAPは、動的ミスマッチに対処し、アジャイルなヒューマノイド全体のスキルを実現するために設計された2段階のフレームワークである。
第1段階では、リターゲットされた人間の動きデータを用いたシミュレーションにおいて、運動追跡ポリシーを事前訓練する。
第2段階では、現実の世界でポリシーをデプロイし、現実のデータを収集し、デルタ(残留)アクションモデルをトレーニングします。
論文 参考訳(メタデータ) (2025-02-03T08:22:46Z) - CooHOI: Learning Cooperative Human-Object Interaction with Manipulated Object Dynamics [44.30880626337739]
CooHOIはマルチヒューマノイド物体輸送問題の解決を目的としたフレームワークである。
単一のヒューマノイドキャラクタは、人間の動きの先行から模倣学習を通じてオブジェクトと対話することを学ぶ。
そして、ヒューマノイドは、操作対象の共有ダイナミクスを考慮し、他人と協調することを学ぶ。
論文 参考訳(メタデータ) (2024-06-20T17:59:22Z) - in2IN: Leveraging individual Information to Generate Human INteractions [29.495166514135295]
In2IN(in2IN)は、人間と人間の動作生成を個別に記述した新しい拡散モデルである。
In2INで生成された動きと、HumanML3Dで事前訓練された1人の動きによって生成された動きとを組み合わせたモデル合成手法であるDualMDMを提案する。
論文 参考訳(メタデータ) (2024-04-15T17:59:04Z) - Online Learning of Human Constraints from Feedback in Shared Autonomy [25.173950581816086]
人間とのリアルタイムなコラボレーションは、様々な物理的制約によって生じる人間の行動パターンが異なるため、課題を提起する。
我々は、異なる人間のオペレータの多様な振る舞いを考慮した人間の制約モデルを学ぶ。
本研究では,人間の身体的制約を学習し,適応できる補助エージェントを提案する。
論文 参考訳(メタデータ) (2024-03-05T13:53:48Z) - Robot Interaction Behavior Generation based on Social Motion Forecasting for Human-Robot Interaction [9.806227900768926]
本稿では,共有ロボット表現空間における社会的動き予測のモデル化を提案する。
ECHOは上記の共有空間で活動し、社会的シナリオで遭遇したエージェントの将来の動きを予測する。
我々は,多対人動作予測タスクにおけるモデルの評価を行い,最先端の性能を大きなマージンで獲得する。
論文 参考訳(メタデータ) (2024-02-07T11:37:14Z) - On the Emergence of Symmetrical Reality [51.21203247240322]
物理仮想アマルガメーションの様々な形態を包含した統一表現を提供する対称現実感フレームワークを導入する。
我々は、対称現実の潜在的な応用を示すAI駆動型アクティブアシストサービスの例を提案する。
論文 参考訳(メタデータ) (2024-01-26T16:09:39Z) - InterControl: Zero-shot Human Interaction Generation by Controlling Every Joint [67.6297384588837]
関節間の所望距離を維持するために,新しい制御可能な運動生成手法であるInterControlを導入する。
そこで本研究では,既成の大規模言語モデルを用いて,ヒューマンインタラクションのための結合ペア間の距離を生成できることを実証した。
論文 参考訳(メタデータ) (2023-11-27T14:32:33Z) - Habitat 3.0: A Co-Habitat for Humans, Avatars and Robots [119.55240471433302]
Habitat 3.0は、家庭環境における協調ロボットタスクを研究するためのシミュレーションプラットフォームである。
複雑な変形可能な体と外観と運動の多様性をモデル化する際の課題に対処する。
Human-in-the-loopインフラストラクチャは、マウス/キーボードまたはVRインターフェースを介してシミュレーションされたロボットとの実際のヒューマンインタラクションを可能にする。
論文 参考訳(メタデータ) (2023-10-19T17:29:17Z) - Learning Human-to-Robot Handovers from Point Clouds [63.18127198174958]
視覚に基づく人間ロボットハンドオーバの制御ポリシーを学習する最初のフレームワークを提案する。
シミュレーションベンチマーク,sim-to-sim転送,sim-to-real転送において,ベースラインよりも大きな性能向上を示した。
論文 参考訳(メタデータ) (2023-03-30T17:58:36Z) - Task-Oriented Human-Object Interactions Generation with Implicit Neural
Representations [61.659439423703155]
TOHO: 命令型ニューラル表現を用いたタスク指向型ヒューマンオブジェクトインタラクション生成
本手法は時間座標のみでパラメータ化される連続運動を生成する。
この研究は、一般的なヒューマン・シーンの相互作用シミュレーションに向けて一歩前進する。
論文 参考訳(メタデータ) (2023-03-23T09:31:56Z) - Model Predictive Control for Fluid Human-to-Robot Handovers [50.72520769938633]
人間の快適さを考慮に入れた計画運動は、人間ロボットのハンドオーバプロセスの一部ではない。
本稿では,効率的なモデル予測制御フレームワークを用いてスムーズな動きを生成することを提案する。
ユーザ数名の多様なオブジェクトに対して,人間とロボットのハンドオーバ実験を行う。
論文 参考訳(メタデータ) (2022-03-31T23:08:20Z) - PHASE: PHysically-grounded Abstract Social Events for Machine Social
Perception [50.551003004553806]
私たちは、物理的に根拠のある抽象的なソーシャルイベント、フェーズのデータセットを作成します。
フェーズは人間の実験によって検証され、人間は社会出来事において豊かな相互作用を知覚する。
ベースラインモデルとして,最新のフィードフォワードニューラルネットワークよりも優れたベイズ逆計画手法SIMPLEを導入する。
論文 参考訳(メタデータ) (2021-03-02T18:44:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。