論文の概要: The Safety Challenge of World Models for Embodied AI Agents: A Review
- arxiv url: http://arxiv.org/abs/2510.05865v1
- Date: Tue, 07 Oct 2025 12:35:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 17:57:08.24911
- Title: The Safety Challenge of World Models for Embodied AI Agents: A Review
- Title(参考訳): 身近なAIエージェントのための世界モデルの安全性への挑戦 : レビュー
- Authors: Lorenzo Baraldi, Zifan Zeng, Chongzhe Zhang, Aradhana Nayak, Hongbo Zhu, Feng Liu, Qunli Zhang, Peng Wang, Shiming Liu, Zheng Hu, Angelo Cangelosi, Lorenzo Baraldi,
- Abstract要約: 我々は、自律運転とロボット工学の分野における世界モデルに関する文献レビューを行う。
我々のレビューは経験的分析によって補完され、最先端のモデルから予測を収集し、検証する。
- 参考スコア(独自算出の注目度): 26.221064333727185
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rapid progress in embodied artificial intelligence has highlighted the necessity for more advanced and integrated models that can perceive, interpret, and predict environmental dynamics. In this context, World Models (WMs) have been introduced to provide embodied agents with the abilities to anticipate future environmental states and fill in knowledge gaps, thereby enhancing agents' ability to plan and execute actions. However, when dealing with embodied agents it is fundamental to ensure that predictions are safe for both the agent and the environment. In this article, we conduct a comprehensive literature review of World Models in the domains of autonomous driving and robotics, with a specific focus on the safety implications of scene and control generation tasks. Our review is complemented by an empirical analysis, wherein we collect and examine predictions from state-of-the-art models, identify and categorize common faults (herein referred to as pathologies), and provide a quantitative evaluation of the results.
- Abstract(参考訳): インボディード人工知能の急速な進歩は、環境力学を知覚し、解釈し、予測できる、より高度で統合されたモデルの必要性を強調している。
この文脈において、世界モデル (WM) は、将来の環境状態を予測し、知識ギャップを埋める能力を持つ具体的エージェントを提供することにより、エージェントの行動計画と実行能力を高めるために導入された。
しかし, エンボディエージェントを扱う場合には, エージェントと環境の両方にとって, 予測が安全であることを保証することが基本である。
本稿では,自律走行とロボティクスの領域におけるワールドモデルに関する総合的な文献レビューを行い,シーンと制御生成タスクの安全性に特に焦点をあてる。
現状のモデルから予測を収集,検討し,共通断層(以下,病理と呼ぶ)を同定,分類し,その結果を定量的に評価した。
関連論文リスト
- Safety at Scale: A Comprehensive Survey of Large Model and Agent Safety [296.5392512998251]
我々は、敵攻撃、データ中毒、バックドア攻撃、ジェイルブレイクとプロンプトインジェクション攻撃、エネルギー遅延攻撃、データとモデル抽出攻撃、出現するエージェント固有の脅威を含む、大規模なモデルに対する安全脅威の包括的分類を提示する。
我々は、大規模なモデル安全性におけるオープンな課題を特定し、議論し、包括的な安全性評価、スケーラブルで効果的な防御機構、持続可能なデータプラクティスの必要性を強調します。
論文 参考訳(メタデータ) (2025-02-02T05:14:22Z) - EARBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [53.717918131568936]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
本研究では,EAIシナリオにおける身体的リスクの自動評価のための新しいフレームワークEARBenchを紹介する。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z) - Zero-shot Safety Prediction for Autonomous Robots with Foundation World Models [0.12499537119440243]
世界モデルは、コントローラを訓練し、システムの内部のダイナミックモデルを学ぶことによって安全違反を予測するために代理世界を作成する。
本稿では,観察を意味的かつ因果的に潜伏した表現に組み込む基礎世界モデルを提案する。
これにより、Surrogate dynamicsは、トレーニング不要な大規模言語モデルを活用することで、因果先状態を直接予測できる。
論文 参考訳(メタデータ) (2024-03-30T20:03:49Z) - Science based AI model certification for untrained operational environments with application in traffic state estimation [1.2186759689780324]
さまざまなエンジニアリング領域における人工知能(AI)の役割の拡大は、AIモデルを新たな運用環境にデプロイする際の課題を強調している。
本稿では,未訓練の運用環境における事前学習データ駆動モデルの適用可能性を評価するための,科学ベースの認証手法を提案する。
論文 参考訳(メタデータ) (2024-03-21T03:01:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。