論文の概要: Safe-ROS: An Architecture for Autonomous Robots in Safety-Critical Domains
- arxiv url: http://arxiv.org/abs/2511.14433v1
- Date: Tue, 18 Nov 2025 12:34:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:53.108754
- Title: Safe-ROS: An Architecture for Autonomous Robots in Safety-Critical Domains
- Title(参考訳): Safe-ROS: 安全臨界領域における自律ロボットのアーキテクチャ
- Authors: Diana C. Benjumea, Marie Farrell, Louise A. Dennis,
- Abstract要約: 安全クリティカルドメインにおける信頼性と検証が可能な自律ロボットの開発に,Safe-ROSアーキテクチャを貢献する。
原子力環境で自律的な検査を行うAgileX Scout Miniロボット上でSafe-ROSを実証する。
以上の結果から,セーフROSアーキテクチャは,自律ロボットを安全クリティカルな領域に配置しながら,安全性を検証可能な監視を提供することが可能であることが示唆された。
- 参考スコア(独自算出の注目度): 1.491109220586182
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deploying autonomous robots in safety-critical domains requires architectures that ensure operational effectiveness and safety compliance. In this paper, we contribute the Safe-ROS architecture for developing reliable and verifiable autonomous robots in such domains. It features two distinct subsystems: (1) an intelligent control system that is responsible for normal/routine operations, and (2) a Safety System consisting of Safety Instrumented Functions (SIFs) that provide formally verifiable independent oversight. We demonstrate Safe-ROS on an AgileX Scout Mini robot performing autonomous inspection in a nuclear environment. One safety requirement is selected and instantiated as a SIF. To support verification, we implement the SIF as a cognitive agent, programmed to stop the robot whenever it detects that it is too close to an obstacle. We verify that the agent meets the safety requirement and integrate it into the autonomous inspection. This integration is also verified, and the full deployment is validated in a Gazebo simulation, and lab testing. We evaluate this architecture in the context of the UK nuclear sector, where safety and regulation are crucial aspects of deployment. Success criteria include the development of a formal property from the safety requirement, implementation, and verification of the SIF, and the integration of the SIF into the operational robotic autonomous system. Our results demonstrate that the Safe-ROS architecture can provide safety verifiable oversight while deploying autonomous robots in safety-critical domains, offering a robust framework that can be extended to additional requirements and various applications.
- Abstract(参考訳): 安全クリティカルなドメインに自律ロボットを配置するには、運用効率と安全コンプライアンスを保証するアーキテクチャが必要である。
本稿では,これらの領域における信頼性と検証が可能な自律ロボットの開発に,Safe-ROSアーキテクチャを貢献する。
1)正常/ルーチン操作に責任を負うインテリジェント制御システム,(2)正式に検証可能な独立監視を提供する安全計装機能(SIF)からなる安全システム,である。
原子力環境で自律的な検査を行うAgileX Scout Miniロボット上でSafe-ROSを実証する。
1つの安全要件が選択され、SIFとしてインスタンス化される。
検証を支援するため,SIFを認知エージェントとして実装し,障害物に近すぎることを検出するとロボットを停止するようにプログラムした。
我々は,エージェントが安全要件を満たすことを確認し,自律検査に統合する。
この統合も検証され、完全なデプロイはGazeboシミュレーションとラボテストで検証される。
我々は、このアーキテクチャを、安全と規制が配備の重要な側面である英国核セクターの文脈で評価する。
成功基準には、安全要件からの正式な財産開発、SIFの実装、検証、SIFのオペレーショナル・ロボティクス・自律システムへの統合などが含まれる。
以上の結果から,セーフROSアーキテクチャは,安全クリティカルなドメインに自律ロボットを配置しながら,安全性を検証可能な監視を提供することが可能であり,さらなる要件やさまざまなアプリケーションに拡張可能な堅牢なフレームワークを提供する。
関連論文リスト
- OS-Sentinel: Towards Safety-Enhanced Mobile GUI Agents via Hybrid Validation in Realistic Workflows [77.95511352806261]
VLM(Vision-Language Models)を利用したコンピュータ利用エージェントは、モバイルプラットフォームのようなデジタル環境を操作する上で、人間のような能力を実証している。
我々は,明示的なシステムレベルの違反を検出するための形式検証器と,文脈的リスクとエージェント行動を評価するコンテキスト判断器を組み合わせた,新しいハイブリッド安全検出フレームワークOS-Sentinelを提案する。
論文 参考訳(メタデータ) (2025-10-28T13:22:39Z) - Out-of-Distribution Detection for Safety Assurance of AI and Autonomous Systems [2.28126966226433]
自律システムの安全性を厳格に実証することは、その採用の責任を負う上で重要である。
OOD検出は研究・開発・安全工学のコミュニティから注目を集めている。
自律システムにおける安全保証の文脈におけるOOD検出手法の総合的な分析を行った。
論文 参考訳(メタデータ) (2025-10-24T08:38:01Z) - ANNIE: Be Careful of Your Robots [48.89876809734855]
エンボディドAIシステムに対する敵の安全攻撃に関する最初の体系的研究について述べる。
すべての安全カテゴリーで攻撃の成功率は50%を超えている。
結果は、実証済みのAIシステムにおいて、これまで未調査だったが、非常に連続的な攻撃面を露呈する。
論文 参考訳(メタデータ) (2025-09-03T15:00:28Z) - A Verification Methodology for Safety Assurance of Robotic Autonomous Systems [0.1962656580942496]
本稿では,自律型農業ロボットの安全性保証のための検証ワークフローを提案する。
コンセプトスタディから設計、実行時の検証に至るまで、開発ライフサイクル全体をカバーする。
提案手法は, 安全クリティカルな特性を検証し, 設計問題の早期発見を容易にするために有効に利用できることが示唆された。
論文 参考訳(メタデータ) (2025-06-24T13:39:51Z) - Towards provable probabilistic safety for scalable embodied AI systems [79.31011047593492]
エンボディードAIシステムは、様々なアプリケーションでますます普及している。
複雑な運用環境での安全性確保は依然として大きな課題である。
このパースペクティブは、安全で大規模に実施されたAIシステムを安全クリティカルなアプリケーションに採用するための道筋を提供する。
論文 参考訳(メタデータ) (2025-06-05T15:46:25Z) - SafeAgent: Safeguarding LLM Agents via an Automated Risk Simulator [77.86600052899156]
LLM(Large Language Model)ベースのエージェントは、現実のアプリケーションにますますデプロイされる。
完全自動合成データ生成によるエージェント安全性を体系的に向上する最初のフレームワークであるAutoSafeを提案する。
AutoSafeは安全性のスコアを平均で45%向上させ、現実世界のタスクでは28.91%の改善を実現している。
論文 参考訳(メタデータ) (2025-05-23T10:56:06Z) - Engineering Risk-Aware, Security-by-Design Frameworks for Assurance of Large-Scale Autonomous AI Models [0.0]
本稿では,大規模自律型AIシステムを対象とした企業レベルのリスク認識型セキュリティ・バイ・デザイン手法を提案する。
敵的および運用的ストレス下でのモデル動作の証明可能な保証を提供する統一パイプラインについて詳述する。
国家安全保障、オープンソースモデルガバナンス、産業自動化におけるケーススタディは、脆弱性とコンプライアンスのオーバーヘッドの計測可能な削減を実証している。
論文 参考訳(メタデータ) (2025-05-09T20:14:53Z) - Designing Control Barrier Function via Probabilistic Enumeration for Safe Reinforcement Learning Navigation [55.02966123945644]
本稿では,ニューラルネットワーク検証技術を利用して制御障壁関数(CBF)とポリシー修正機構の設計を行う階層型制御フレームワークを提案する。
提案手法は,安全なCBFベースの制御層を構築するために使用される,安全でない操作領域を特定するための確率的列挙に依存する。
これらの実験は、効率的なナビゲーション動作を維持しながら、安全でない動作を補正する提案手法の能力を実証するものである。
論文 参考訳(メタデータ) (2025-04-30T13:47:25Z) - Safety Control of Service Robots with LLMs and Embodied Knowledge Graphs [12.787160626087744]
本稿では,大規模言語モデルとERCP(Embodied Robotic Control Prompts)とEKG(Embodied Knowledge Graphs)との新たな統合を提案する。
ERCPは、LLMが安全かつ正確な応答を生成するための事前定義された命令として設計されている。
EKGは、ロボットの動作が安全プロトコルと継続的に一致していることを保証する包括的な知識基盤を提供する。
論文 参考訳(メタデータ) (2024-05-28T05:50:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。