論文の概要: Foundational World Models Accurately Detect Bimanual Manipulator Failures
- arxiv url: http://arxiv.org/abs/2603.06987v1
- Date: Sat, 07 Mar 2026 02:11:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:13.584648
- Title: Foundational World Models Accurately Detect Bimanual Manipulator Failures
- Title(参考訳): 人工マニピュレータの故障を正確に検出する基礎的世界モデル
- Authors: Isaac R. Ward, Michelle Ho, Houjun Liu, Aaron Feldman, Joseph Vincent, Liam Kruse, Sean Cheong, Duncan Eddy, Mykel J. Kochenderfer, Mac Schwager,
- Abstract要約: 我々は、事前学習された視覚基盤モデルの圧縮潜在空間内で、確率的、歴史的、世界モデルを訓練する。
このモデルは、整合予測フレームワーク内の非整合性スコアとして機能する予測と共に不確実性推定を出力する。
また,本手法の学習手法として,トレーニング可能なパラメータの約20分の1が必須であることを示す。
- 参考スコア(独自算出の注目度): 21.93685012734004
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deploying visuomotor robots at scale is challenging due to the potential for anomalous failures to degrade performance, cause damage, or endanger human life. Bimanual manipulators are no exception; these robots have vast state spaces comprised of high-dimensional images and proprioceptive signals. Explicitly defining failure modes within such state spaces is infeasible. In this work, we overcome these challenges by training a probabilistic, history informed, world model within the compressed latent space of a pretrained vision foundation model (NVIDIA's Cosmos Tokenizer). The model outputs uncertainty estimates alongside its predictions that serve as non-conformity scores within a conformal prediction framework. We use these scores to develop a runtime monitor, correlating periods of high uncertainty with anomalous failures. To test these methods, we use the simulated Push-T environment and the Bimanual Cable Manipulation dataset, the latter of which we introduce in this work. This new dataset features trajectories with multiple synchronized camera views, proprioceptive signals, and annotated failures from a challenging data center maintenance task. We benchmark our methods against baselines from the anomaly detection and out-of-distribution detection literature, and show that our approach considerably outperforms statistical techniques. Furthermore, we show that our approach requires approximately one twentieth of the trainable parameters as the next-best learning-based approach, yet outperforms it by 3.8% in terms of failure detection rate, paving the way toward safely deploying manipulator robots in real-world environments where reliability is non-negotiable.
- Abstract(参考訳): 視覚運動ロボットを大規模に展開することは、異常な失敗がパフォーマンスを低下させたり、損傷を与えたり、人間の生命を危険にさらす可能性があるため、難しい。
双対マニピュレータは例外ではなく、これらのロボットは高次元画像と受容シグナルからなる広大な状態空間を持っている。
このような状態空間内で障害モードを明示的に定義することは不可能である。
本研究では,プレトレーニングされたビジョンファウンデーションモデル(NVIDIAのコスモス・トケナイザー)の圧縮潜在空間内で,確率的,歴史的,世界モデルをトレーニングすることで,これらの課題を克服する。
このモデルは、整合予測フレームワーク内の非整合性スコアとして機能する予測と共に不確実性推定を出力する。
これらのスコアをランタイムモニタの開発に使用し、異常な障害と高い不確実性の期間を関連づける。
これらの手法をテストするために、シミュレーションされたPush-T環境と、本研究で紹介したBimanual Cable Manipulationデータセットを使用する。
この新しいデータセットには、複数の同期カメラビュー、プロプリセプティブ信号、挑戦的なデータセンタメンテナンスタスクからの注釈付き障害を備えたトラジェクトリが含まれている。
本手法は,異常検出とアウト・オブ・ディストリビューション検出の文献からのベースラインに対するベンチマークを行い,統計的手法よりもかなり優れていることを示す。
さらに,本手法では,訓練可能なパラメータの約20分の1を次のベテラン学習ベースアプローチとして必要としているが,故障検出率では3.8%向上し,信頼性の低い実環境においてマニピュレータロボットを安全に配置する方法について検討した。
関連論文リスト
- Guardian: Detecting Robotic Planning and Execution Errors with Vision-Language Models [53.20969621498248]
本稿では,多種多様な計画および実行障害を生成するために,軌道を手続き的に乱す自動ロボット故障合成手法を提案する。
RLBench-Fail, BridgeDataV2-Fail, UR5-Failの3つの新しい故障検出ベンチマークを構築した。
次に、詳細な障害推論と検出のためのマルチビューイメージを備えたVLMであるGuardianをトレーニングします。
論文 参考訳(メタデータ) (2025-12-01T17:57:27Z) - RoHOI: Robustness Benchmark for Human-Object Interaction Detection [84.78366452133514]
ヒューマン・オブジェクト・インタラクション(HOI)検出は、コンテキスト認識支援を可能にするロボット・ヒューマン・アシストに不可欠である。
HOI検出のための最初のベンチマークを導入し、様々な課題下でモデルのレジリエンスを評価する。
我々のベンチマークであるRoHOIは、HICO-DETとV-COCOデータセットに基づく20の汚職タイプと、新しいロバストネスにフォーカスしたメトリクスを含んでいる。
論文 参考訳(メタデータ) (2025-07-12T01:58:04Z) - Can We Detect Failures Without Failure Data? Uncertainty-Aware Runtime Failure Detection for Imitation Learning Policies [19.27526590452503]
FAIL-Detectは、模倣学習に基づくロボット操作における障害検出のための2段階のアプローチである。
まず、政策失敗と相関し、不確実性を捉えるスカラー信号にポリシー入力と出力を蒸留する。
我々の実験は、新しいフローベース密度推定器を使用する場合、学習信号がほぼ一貫した効果を示す。
論文 参考訳(メタデータ) (2025-03-11T15:47:12Z) - Uncertainty-aware Human Mobility Modeling and Anomaly Detection [24.22648449430148]
生のGPSデータを連続的静止点イベントとしてモデル化した人間の行動における異常検出を定式化する。
提案したモデルUSTADとアレータティック不確実性推定を併用する。
実験の結果,USTADは産業規模データのベースライン以上でAUCROCの異常検出を3%-15%改善することがわかった。
論文 参考訳(メタデータ) (2024-10-02T06:57:08Z) - Certified Human Trajectory Prediction [66.1736456453465]
本稿では,ロバスト性を保証する軌道予測に適した認証手法を提案する。
そこで本研究では, 拡散型トラジェクトリデノイザを提案し, 本手法に組み込むことにより, 性能低下を緩和する。
認定された予測器の精度と堅牢性を実証し、認定されていない予測器に対するそれらの優位性を強調する。
論文 参考訳(メタデータ) (2024-03-20T17:41:35Z) - An Outlier Exposure Approach to Improve Visual Anomaly Detection
Performance for Mobile Robots [76.36017224414523]
移動ロボットの視覚異常検出システム構築の問題点を考察する。
標準異常検出モデルは、非異常データのみからなる大規模なデータセットを用いて訓練される。
本研究では,これらのデータを利用してリアルNVP異常検出モデルの性能向上を図る。
論文 参考訳(メタデータ) (2022-09-20T15:18:13Z) - Monitoring Model Deterioration with Explainable Uncertainty Estimation
via Non-parametric Bootstrap [0.0]
一度デプロイされた機械学習モデルを監視することは難しい。
ラベル付きデータが到達範囲を超えている場合、実際のシナリオでモデルをいつ再トレーニングするかを判断するのはさらに難しい。
本研究では,非パラメトリックブートストラップ型不確実性推定とSHAP値を用いて説明可能な不確実性推定を行う。
論文 参考訳(メタデータ) (2022-01-27T17:23:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。