論文の概要: A Verification Methodology for Safety Assurance of Robotic Autonomous Systems
- arxiv url: http://arxiv.org/abs/2506.19622v1
- Date: Tue, 24 Jun 2025 13:39:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-25 19:48:23.651308
- Title: A Verification Methodology for Safety Assurance of Robotic Autonomous Systems
- Title(参考訳): ロボット自律システムの安全保証のための検証手法
- Authors: Mustafa Adam, David A. Anisi, Pedro Ribeiro,
- Abstract要約: 本稿では,自律型農業ロボットの安全性保証のための検証ワークフローを提案する。
コンセプトスタディから設計、実行時の検証に至るまで、開発ライフサイクル全体をカバーする。
提案手法は, 安全クリティカルな特性を検証し, 設計問題の早期発見を容易にするために有効に利用できることが示唆された。
- 参考スコア(独自算出の注目度): 0.44241702149260353
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous robots deployed in shared human environments, such as agricultural settings, require rigorous safety assurance to meet both functional reliability and regulatory compliance. These systems must operate in dynamic, unstructured environments, interact safely with humans, and respond effectively to a wide range of potential hazards. This paper presents a verification workflow for the safety assurance of an autonomous agricultural robot, covering the entire development life-cycle, from concept study and design to runtime verification. The outlined methodology begins with a systematic hazard analysis and risk assessment to identify potential risks and derive corresponding safety requirements. A formal model of the safety controller is then developed to capture its behaviour and verify that the controller satisfies the specified safety properties with respect to these requirements. The proposed approach is demonstrated on a field robot operating in an agricultural setting. The results show that the methodology can be effectively used to verify safety-critical properties and facilitate the early identification of design issues, contributing to the development of safer robots and autonomous systems.
- Abstract(参考訳): 農業環境などの共有人間環境に展開される自律ロボットは、機能的信頼性と規制コンプライアンスの両方を満たすために厳格な安全保証を必要とする。
これらのシステムは動的で非構造的な環境で動作し、人間と安全に相互作用し、幅広い潜在的な危険に効果的に対応する必要がある。
本稿では,自律型農業ロボットの安全性保証のための検証ワークフローについて,概念研究から設計,実行時検証に至るまで,開発ライフサイクル全体をカバーする。
概説された方法論は、潜在的なリスクを特定し、対応する安全要件を導出するための体系的な危険分析とリスク評価から始まる。
次に、その振る舞いを捉え、それらの要求に対して、コントローラが指定された安全特性を満たすことを確認するために、安全コントローラの正式なモデルが開発される。
提案手法は農業環境で動作しているフィールドロボット上で実証される。
提案手法は,安全上重要な特性の検証や設計上の問題の早期発見に有効であり,より安全なロボットや自律システムの開発に寄与することが示唆された。
関連論文リスト
- Probabilistic modelling and safety assurance of an agriculture robot providing light-treatment [0.0]
農業ロボットの採用は、新しい技術の信頼性、堅牢性、安全性に対する農家の信頼を仮定している。
本稿では,早期開発段階における確率論的モデリングとリスク分析の枠組みについて考察する。
論文 参考訳(メタデータ) (2025-06-24T13:39:32Z) - Towards provable probabilistic safety for scalable embodied AI systems [79.31011047593492]
エンボディードAIシステムは、様々なアプリケーションでますます普及している。
複雑な運用環境での安全性確保は依然として大きな課題である。
提案する確率的安全性は,大規模展開の残留リスクが予め定義された閾値以下であることを保証することを目的としている。
論文 参考訳(メタデータ) (2025-06-05T15:46:25Z) - Safely Learning Controlled Stochastic Dynamics [61.82896036131116]
システム力学の安全な探索と効率的な推定を可能にする手法を提案する。
学習後、学習モデルはシステムのダイナミクスの予測を可能にし、任意の制御の安全性検証を可能にする。
我々は、真の力学のソボレフ正則性を高めることにより、安全性と適応学習率の向上を理論的に保証する。
論文 参考訳(メタデータ) (2025-06-03T11:17:07Z) - Engineering Risk-Aware, Security-by-Design Frameworks for Assurance of Large-Scale Autonomous AI Models [0.0]
本稿では,大規模自律型AIシステムを対象とした企業レベルのリスク認識型セキュリティ・バイ・デザイン手法を提案する。
敵的および運用的ストレス下でのモデル動作の証明可能な保証を提供する統一パイプラインについて詳述する。
国家安全保障、オープンソースモデルガバナンス、産業自動化におけるケーススタディは、脆弱性とコンプライアンスのオーバーヘッドの計測可能な削減を実証している。
論文 参考訳(メタデータ) (2025-05-09T20:14:53Z) - Designing Control Barrier Function via Probabilistic Enumeration for Safe Reinforcement Learning Navigation [55.02966123945644]
本稿では,ニューラルネットワーク検証技術を利用して制御障壁関数(CBF)とポリシー修正機構の設計を行う階層型制御フレームワークを提案する。
提案手法は,安全なCBFベースの制御層を構築するために使用される,安全でない操作領域を特定するための確率的列挙に依存する。
これらの実験は、効率的なナビゲーション動作を維持しながら、安全でない動作を補正する提案手法の能力を実証するものである。
論文 参考訳(メタデータ) (2025-04-30T13:47:25Z) - Safe LLM-Controlled Robots with Formal Guarantees via Reachability Analysis [0.6749750044497732]
本稿では,Large Language Models (LLM) 制御ロボットを対象とした,データ駆動型リーチビリティ解析に基づく安全保証フレームワークを提案する。
我々のアプローチは、明示的な分析モデルに頼ることなく、安全でない行動に対する厳密な安全保証を提供する。
論文 参考訳(メタデータ) (2025-03-05T21:23:15Z) - Don't Let Your Robot be Harmful: Responsible Robotic Manipulation via Safety-as-Policy [53.048430683355804]
ロボット操作における人間の指示の実行は、深刻な安全性のリスクにつながる可能性がある。
i) 安全リスクを含むシナリオを自動生成し、仮想的なインタラクションを行う世界モデルと、(ii) 反射による結果を予測するメンタルモデルを含む。
本研究は, 安全行政がリスクを回避し, 合成データセットと実世界の両方の実験において, 効率的にタスクを完了できることを実証する。
論文 参考訳(メタデータ) (2024-11-27T12:27:50Z) - EARBench: Towards Evaluating Physical Risk Awareness for Task Planning of Foundation Model-based Embodied AI Agents [53.717918131568936]
EAI(Embodied AI)は、高度なAIモデルを現実世界のインタラクションのための物理的なエンティティに統合する。
高レベルのタスク計画のためのEAIエージェントの"脳"としてのファンデーションモデルは、有望な結果を示している。
しかし、これらのエージェントの物理的環境への展開は、重大な安全性上の課題を呈している。
本研究では,EAIシナリオにおける身体的リスクの自動評価のための新しいフレームワークEARBenchを紹介する。
論文 参考訳(メタデータ) (2024-08-08T13:19:37Z) - Safety Control of Service Robots with LLMs and Embodied Knowledge Graphs [12.787160626087744]
本稿では,大規模言語モデルとERCP(Embodied Robotic Control Prompts)とEKG(Embodied Knowledge Graphs)との新たな統合を提案する。
ERCPは、LLMが安全かつ正確な応答を生成するための事前定義された命令として設計されている。
EKGは、ロボットの動作が安全プロトコルと継続的に一致していることを保証する包括的な知識基盤を提供する。
論文 参考訳(メタデータ) (2024-05-28T05:50:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。