論文の概要: Moving On, Even When You're Broken: Fail-Active Trajectory Generation via Diffusion Policies Conditioned on Embodiment and Task
- arxiv url: http://arxiv.org/abs/2602.02895v1
- Date: Mon, 02 Feb 2026 23:02:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-04 18:37:15.126334
- Title: Moving On, Even When You're Broken: Fail-Active Trajectory Generation via Diffusion Policies Conditioned on Embodiment and Task
- Title(参考訳): 身体とタスクを条件とした拡散反応によるフェイルアクティブ軌道生成
- Authors: Gilberto G. Briscoe-Martinez, Yaashia Gautam, Rahul Shetty, Anuj Pasricha, Marco M. Nicotra, Alessandro Roncone,
- Abstract要約: DEFTは、ロボットの現在の実施形態とタスク制約を条件とした拡散ベースの軌道生成装置である。
7-DoFロボットアームを用いたシミュレーションと実世界のシナリオでDEFTを評価した。
以上の結果から, DEFTは任意の障害設定や実世界のデプロイに対してフェールアクティブな操作を実現する。
- 参考スコア(独自算出の注目度): 37.490326323776536
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robot failure is detrimental and disruptive, often requiring human intervention to recover. Maintaining safe operation under impairment to achieve task completion, i.e. fail-active operation, is our target. Focusing on actuation failures, we introduce DEFT, a diffusion-based trajectory generator conditioned on the robot's current embodiment and task constraints. DEFT generalizes across failure types, supports constrained and unconstrained motions, and enables task completion under arbitrary failure. We evaluated DEFT in both simulation and real-world scenarios using a 7-DoF robotic arm. In simulation over thousands of joint-failure cases across multiple tasks, DEFT outperformed the baseline by up to 2 times. On failures unseen during training, it continued to outperform the baseline, indicating robust generalization in simulation. Further, we performed real-world evaluations on two multi-step tasks, drawer manipulation and whiteboard erasing. These experiments demonstrated DEFT succeeding on tasks where classical methods failed. Our results show that DEFT achieves fail-active manipulation across arbitrary failure configurations and real-world deployments.
- Abstract(参考訳): ロボットの故障は有害で破壊的であり、しばしば回復するために人間の介入を必要とする。
タスク完了のための障害下での安全操作,すなわちフェールアクティブ動作を維持することが,我々の目標である。
動作障害に着目し,ロボットの現在の実施状況とタスク制約を条件とした拡散型軌道生成器であるDEFTを導入する。
DEFTは、障害タイプをまたいで一般化し、制約や制約のない動作をサポートし、任意の障害下でタスク補完を可能にする。
7-DoFロボットアームを用いたシミュレーションと実世界のシナリオでDEFTを評価した。
複数のタスクにわたる何千もの共同障害ケースのシミュレーションにおいて、DEFTはベースラインを最大2倍に上回った。
トレーニング中に見つからない失敗に対して、ベースラインを上回り続け、シミュレーションにおける堅牢な一般化を示唆した。
さらに,2つのマルチステップタスク,引き出し操作とホワイトボード消去について実環境評価を行った。
これらの実験は、DEFTが古典的手法が失敗したタスクで成功することを示した。
以上の結果から, DEFTは任意の障害設定や実世界のデプロイに対してフェールアクティブな操作を実現する。
関連論文リスト
- Validating Generalist Robots with Situation Calculus and STL Falsification [6.728104012295723]
汎用ロボットは現実になりつつあり、自然言語の命令を解釈し、多様な操作を実行することができる。
本稿では,抽象的推論と具体的なシステムファルシフィケーションを組み合わせた2層検証フレームワークを提案する。
テーブルトップ操作タスクの実験により、私たちのフレームワークはNVIDIA GR00Tコントローラの障害ケースを効果的に発見することを示した。
論文 参考訳(メタデータ) (2026-01-06T14:13:33Z) - Hierarchical Vision Language Action Model Using Success and Failure Demonstrations [60.82332413442677]
階層型視覚-言語-アクションモデルであるVINEを導入し,高レベル推論を低レベル制御から分離する。
システム2は、2Dシーングラフの抽象化を介して、実現可能性誘導木探索を行う。
システム1はエージェントのコアスキルを変更することなく、低レベルのアクションを実行する。
論文 参考訳(メタデータ) (2025-12-03T15:58:38Z) - Guardian: Detecting Robotic Planning and Execution Errors with Vision-Language Models [53.20969621498248]
本稿では,多種多様な計画および実行障害を生成するために,軌道を手続き的に乱す自動ロボット故障合成手法を提案する。
RLBench-Fail, BridgeDataV2-Fail, UR5-Failの3つの新しい故障検出ベンチマークを構築した。
次に、詳細な障害推論と検出のためのマルチビューイメージを備えたVLMであるGuardianをトレーニングします。
論文 参考訳(メタデータ) (2025-12-01T17:57:27Z) - Visual Backdoor Attacks on MLLM Embodied Decision Making via Contrastive Trigger Learning [89.1856483797116]
MLLMをベースとした組込みエージェントに視覚的バックドアを注入する最初のフレームワークであるBEATを紹介する。
テキストトリガーとは異なり、オブジェクトトリガーは視点や照明の幅が広いため、確実に移植することは困難である。
BEATは攻撃の成功率を最大80%まで達成し、強い良識のあるタスクパフォーマンスを維持します。
論文 参考訳(メタデータ) (2025-10-31T16:50:49Z) - Scene Graph-Guided Proactive Replanning for Failure-Resilient Embodied Agent [9.370683025542686]
本稿では,サブタスク境界における障害の検出と修正を行う,アクティブなリプランニングフレームワークを提案する。
AI2-THORシミュレータの実験では,実行障害発生前の意味的および空間的ミスマッチを検出する。
論文 参考訳(メタデータ) (2025-08-15T07:48:51Z) - A Unified Framework for Real-Time Failure Handling in Robotics Using Vision-Language Models, Reactive Planner and Behavior Trees [1.3481665321936716]
本稿では,リアクティブプランナであるVLM(Vision-Language Models)とBT(Behavior Trees)を組み合わせて,リアルタイムの障害処理を実現する,統合された障害復旧フレームワークを提案する。
当社のアプローチには、実行前の潜在的な障害をチェックする事前実行検証と、実行中の障害を検出し修正するリアクティブ障害処理が含まれている。
我々は、ペグ挿入、オブジェクトソート、引き手の配置といったタスクにおいて、ABB YuMiロボットを用いた実世界の実験を通して、我々のフレームワークを評価する。
論文 参考訳(メタデータ) (2025-03-19T13:40:56Z) - Reactive Long Horizon Task Execution via Visual Skill and Precondition
Models [59.76233967614774]
シミュレーションで学習したモデルを用いて、単純なタスクプランナの構成要素をグラウンド化することで、見知らぬロボットタスクを達成できるシミュレート・トゥ・リアル・トレーニングのアプローチについて述べる。
シミュレーションでは91.6%から98%,実世界の成功率は10%から80%に増加した。
論文 参考訳(メタデータ) (2020-11-17T15:24:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。