論文の概要: Safety of Embodied Navigation: A Survey
- arxiv url: http://arxiv.org/abs/2508.05855v1
- Date: Thu, 07 Aug 2025 21:09:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 20:39:06.013665
- Title: Safety of Embodied Navigation: A Survey
- Title(参考訳): 身体的ナビゲーションの安全性に関する調査
- Authors: Zixia Wang, Jia Hu, Ronghui Mu,
- Abstract要約: 身体的なナビゲーションでは、エージェントが慣れない設定で特定のターゲットに向かって移動しながら、その環境を知覚し、対話し、適応する必要がある。
実施されたナビゲーションを重要なアプリケーションに統合することで、かなりの安全性上の懸念が生じる。
この調査は、複数の視点から実施されたナビゲーションの安全性を包括的に分析する。
- 参考スコア(独自算出の注目度): 7.093351303699698
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As large language models (LLMs) continue to advance and gain influence, the development of embodied AI has accelerated, drawing significant attention, particularly in navigation scenarios. Embodied navigation requires an agent to perceive, interact with, and adapt to its environment while moving toward a specified target in unfamiliar settings. However, the integration of embodied navigation into critical applications raises substantial safety concerns. Given their deployment in dynamic, real-world environments, ensuring the safety of such systems is critical. This survey provides a comprehensive analysis of safety in embodied navigation from multiple perspectives, encompassing attack strategies, defense mechanisms, and evaluation methodologies. Beyond conducting a comprehensive examination of existing safety challenges, mitigation technologies, and various datasets and metrics that assess effectiveness and robustness, we explore unresolved issues and future research directions in embodied navigation safety. These include potential attack methods, mitigation strategies, more reliable evaluation techniques, and the implementation of verification frameworks. By addressing these critical gaps, this survey aims to provide valuable insights that can guide future research toward the development of safer and more reliable embodied navigation systems. Furthermore, the findings of this study have broader implications for enhancing societal safety and increasing industrial efficiency.
- Abstract(参考訳): 大規模言語モデル(LLM)が進歩し影響力を増し続けている中、具体化されたAIの開発が加速し、特にナビゲーションシナリオにおいて大きな注目を集めている。
身体的なナビゲーションでは、エージェントが慣れない設定で特定のターゲットに向かって移動しながら、その環境を知覚し、対話し、適応する必要がある。
しかし、組み込まれたナビゲーションを重要なアプリケーションに統合することで、かなりの安全性上の懸念が生じる。
動的で現実的な環境に配置することを考えると、そのようなシステムの安全性を保証することが重要です。
本調査は,攻撃戦略,防御機構,評価手法を網羅した,複数の視点から実施した航法における安全性の包括的分析を提供する。
既存の安全課題、緩和技術、有効性とロバスト性を評価する様々なデータセットや指標を総合的に調査するだけでなく、未解決の問題や、航法安全の具体化における今後の研究方向についても検討する。
これには潜在的な攻撃方法、緩和戦略、信頼性の高い評価手法、検証フレームワークの実装が含まれる。
これらの重要なギャップに対処することにより、より安全で信頼性の高いナビゲーションシステムの開発に向けて、将来の研究を導くための貴重な洞察を提供することを目的としている。
さらに, 本研究の結果は, 社会安全の向上と産業効率の向上に大きく影響している。
関連論文リスト
- Towards Trustworthy GUI Agents: A Survey [64.6445117343499]
本調査では,GUIエージェントの信頼性を5つの重要な次元で検証する。
敵攻撃に対する脆弱性、シーケンシャルな意思決定における障害モードのカスケードなど、大きな課題を特定します。
GUIエージェントが普及するにつれて、堅牢な安全基準と責任ある開発プラクティスを確立することが不可欠である。
論文 参考訳(メタデータ) (2025-03-30T13:26:00Z) - AISafetyLab: A Comprehensive Framework for AI Safety Evaluation and Improvement [73.0700818105842]
我々は、AI安全のための代表的攻撃、防衛、評価方法論を統合する統合されたフレームワークとツールキットであるAISafetyLabを紹介する。
AISafetyLabには直感的なインターフェースがあり、開発者はシームレスにさまざまなテクニックを適用できる。
我々はヴィクナに関する実証的研究を行い、異なる攻撃戦略と防衛戦略を分析し、それらの比較効果に関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2025-02-24T02:11:52Z) - Navigating Threats: A Survey of Physical Adversarial Attacks on LiDAR Perception Systems in Autonomous Vehicles [4.4538254463902645]
LiDARシステムは敵の攻撃に弱いため、自動運転車の安全性と堅牢性に大きな課題が生じる。
本調査では,LiDARに基づく知覚システムを対象とした身体的敵攻撃に関する研究状況について概説する。
我々は、LiDARベースのシステムに対する既存の攻撃において、重要な課題を特定し、ギャップを浮き彫りにする。
論文 参考訳(メタデータ) (2024-09-30T15:50:36Z) - Safetywashing: Do AI Safety Benchmarks Actually Measure Safety Progress? [59.96471873997733]
我々は、より有意義な安全指標を開発するための実証的な基盤を提案し、機械学習研究の文脈でAIの安全性を定義する。
我々は、AI安全研究のためのより厳格なフレームワークを提供し、安全性評価の科学を前進させ、測定可能な進歩への道筋を明らかにすることを目指している。
論文 参考訳(メタデータ) (2024-07-31T17:59:24Z) - Sok: Comprehensive Security Overview, Challenges, and Future Directions of Voice-Controlled Systems [10.86045604075024]
Voice Control Systemsをスマートデバイスに統合することで、セキュリティの重要性が強調される。
現在の研究では、VCSの脆弱性が多数発見され、ユーザのプライバシとセキュリティに重大なリスクが提示されている。
本稿では,VCSの階層的モデル構造を導入し,既存の文献を体系的に分類・分析するための新しいレンズを提供する。
我々は,その技術的原則に基づいて攻撃を分類し,その方法,目標,ベクトル,行動など,さまざまな属性を徹底的に評価する。
論文 参考訳(メタデータ) (2024-05-27T12:18:46Z) - The Last Decade in Review: Tracing the Evolution of Safety Assurance
Cases through a Comprehensive Bibliometric Analysis [7.431812376079826]
安全保証は、自動車、航空宇宙、原子力など、様々な分野において最重要事項である。
安全保証ケースを使用することで、生成されたシステム機能の正しさを検証することができ、システム障害を防止することができる。
論文 参考訳(メタデータ) (2023-11-13T17:34:23Z) - Towards Safer Generative Language Models: A Survey on Safety Risks,
Evaluations, and Improvements [76.80453043969209]
本調査では,大規模モデルに関する安全研究の枠組みについて述べる。
まず、広範囲にわたる安全問題を導入し、その後、大型モデルの安全性評価手法を掘り下げる。
トレーニングからデプロイメントまで,大規模なモデルの安全性を高めるための戦略について検討する。
論文 参考訳(メタデータ) (2023-02-18T09:32:55Z) - Enhancing Navigational Safety in Crowded Environments using
Semantic-Deep-Reinforcement-Learning-based Navigation [5.706538676509249]
本研究では,高レベルの障害物情報からオブジェクト固有の安全ルールを学習する意味的な深層強化学習に基づくナビゲーション手法を提案する。
エージェントは、個々の安全距離をセマンティック情報に依存することにより、より安全にナビゲートできることを実証する。
論文 参考訳(メタデータ) (2021-09-23T10:50:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。