論文の概要: Safe-SDL:Establishing Safety Boundaries and Control Mechanisms for AI-Driven Self-Driving Laboratories
- arxiv url: http://arxiv.org/abs/2602.15061v1
- Date: Fri, 13 Feb 2026 12:42:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-18 16:03:17.840503
- Title: Safe-SDL:Establishing Safety Boundaries and Control Mechanisms for AI-Driven Self-Driving Laboratories
- Title(参考訳): 安全SDL:AI駆動型自動運転研究所の安全境界と制御機構の確立
- Authors: Zihan Zhang, Haohui Que, Junhan Chang, Xin Zhang, Hao Wei, Tong Zhu,
- Abstract要約: 自動運転研究所(SDL)は、自律的な仮説生成、実験、分析が可能な閉ループ実験システムを作成する。
本稿では,ロバストな安全境界と制御機構を確立するための包括的フレームワークであるSafe-SDLを提案する。
- 参考スコア(独自算出の注目度): 18.300558114535992
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The emergence of Self-Driving Laboratories (SDLs) transforms scientific discovery methodology by integrating AI with robotic automation to create closed-loop experimental systems capable of autonomous hypothesis generation, experimentation, and analysis. While promising to compress research timelines from years to weeks, their deployment introduces unprecedented safety challenges differing from traditional laboratories or purely digital AI. This paper presents Safe-SDL, a comprehensive framework for establishing robust safety boundaries and control mechanisms in AI-driven autonomous laboratories. We identify and analyze the critical ``Syntax-to-Safety Gap'' -- the disconnect between AI-generated syntactically correct commands and their physical safety implications -- as the central challenge in SDL deployment. Our framework addresses this gap through three synergistic components: (1) formally defined Operational Design Domains (ODDs) that constrain system behavior within mathematically verified boundaries, (2) Control Barrier Functions (CBFs) that provide real-time safety guarantees through continuous state-space monitoring, and (3) a novel Transactional Safety Protocol (CRUTD) that ensures atomic consistency between digital planning and physical execution. We ground our theoretical contributions through analysis of existing implementations including UniLabOS and the Osprey architecture, demonstrating how these systems instantiate key safety principles. Evaluation against the LabSafety Bench reveals that current foundation models exhibit significant safety failures, demonstrating that architectural safety mechanisms are essential rather than optional. Our framework provides both theoretical foundations and practical implementation guidance for safe deployment of autonomous scientific systems, establishing the groundwork for responsible acceleration of AI-driven discovery.
- Abstract(参考訳): SDL(Self-Driving Laboratories)の出現は、AIとロボット自動化を統合して、自律的な仮説生成、実験、分析が可能な閉ループ実験システムを構築することによって、科学的発見方法論を変革する。
研究タイムラインを数年から数週間にわたって圧縮することを約束する一方で、彼らの展開は従来の研究室や純粋にデジタルAIとは異なる、前例のない安全上の課題を提起している。
本稿では,AI駆動の自律型研究所において,堅牢な安全境界と制御機構を確立するための包括的フレームワークであるSafe-SDLを提案する。
我々は、SDLデプロイメントにおける中心的な課題として、AI生成した構文上の正しいコマンドとそれらの物理的安全性含意との間の断絶である‘Syntax-to-Safety Gap'’を識別し、分析する。
本フレームワークは,(1)数学的に検証された境界内でのシステム動作を制約するオペレーショナル・デザイン・ドメイン(ODD),(2)連続状態空間監視によるリアルタイム安全保証を提供する制御バリア・ファンクション(CBF),(3)デジタル計画と物理実行の原子的整合性を保証する新しいトランザクション・セーフティ・プロトコル(CRUTD)の3つの相乗的コンポーネントを通じて,このギャップに対処する。
我々は、UniLabOSやOspreyアーキテクチャなどの既存実装の分析を通じて、これらのシステムがいかにして主要な安全原則をインスタンス化するかを実証し、理論的貢献を基礎にしている。
LabSafety Benchに対する評価では、現在の基盤モデルは、オプションではなく、アーキテクチャの安全性メカニズムが不可欠であることを証明している。
我々のフレームワークは、自律的な科学システムの安全な展開のための理論的基礎と実践的な実装ガイダンスの両方を提供し、AI駆動発見の責任ある加速の基礎を確立します。
関連論文リスト
- Assured Autonomy: How Operations Research Powers and Orchestrates Generative AI Systems [18.881800772626427]
生成モデルは、実現可能性、分散シフトに対する堅牢性、ストレステストを提供するメカニズムと組み合わせない限り、運用領域で脆弱である可能性がある、と我々は主張する。
我々は,運用研究に根ざした自律性確保のための概念的枠組みを開発する。
これらの要素は、安全クリティカルで信頼性に敏感な運用領域における自律性を保証するための研究アジェンダを定義する。
論文 参考訳(メタデータ) (2025-12-30T04:24:06Z) - Safe-ROS: An Architecture for Autonomous Robots in Safety-Critical Domains [1.491109220586182]
安全クリティカルドメインにおける信頼性と検証が可能な自律ロボットの開発に,Safe-ROSアーキテクチャを貢献する。
原子力環境で自律的な検査を行うAgileX Scout Miniロボット上でSafe-ROSを実証する。
以上の結果から,セーフROSアーキテクチャは,自律ロボットを安全クリティカルな領域に配置しながら,安全性を検証可能な監視を提供することが可能であることが示唆された。
論文 参考訳(メタデータ) (2025-11-18T12:34:33Z) - ANNIE: Be Careful of Your Robots [48.89876809734855]
エンボディドAIシステムに対する敵の安全攻撃に関する最初の体系的研究について述べる。
すべての安全カテゴリーで攻撃の成功率は50%を超えている。
結果は、実証済みのAIシステムにおいて、これまで未調査だったが、非常に連続的な攻撃面を露呈する。
論文 参考訳(メタデータ) (2025-09-03T15:00:28Z) - Report on NSF Workshop on Science of Safe AI [75.96202715567088]
機械学習の新たな進歩は、社会問題に対する技術ベースのソリューションを開発する新たな機会につながっている。
AIの約束を果たすためには、正確でパフォーマンスが高く、安全で信頼性の高いAIベースのシステムを開発する方法に取り組む必要がある。
本報告はワークショップの安全性の異なる側面に対処した作業グループにおける議論の結果である。
論文 参考訳(メタデータ) (2025-06-24T18:55:29Z) - Towards provable probabilistic safety for scalable embodied AI systems [79.31011047593492]
エンボディードAIシステムは、様々なアプリケーションでますます普及している。
複雑な運用環境での安全性確保は依然として大きな課題である。
このパースペクティブは、安全で大規模に実施されたAIシステムを安全クリティカルなアプリケーションに採用するための道筋を提供する。
論文 参考訳(メタデータ) (2025-06-05T15:46:25Z) - Designing Control Barrier Function via Probabilistic Enumeration for Safe Reinforcement Learning Navigation [55.02966123945644]
本稿では,ニューラルネットワーク検証技術を利用して制御障壁関数(CBF)とポリシー修正機構の設計を行う階層型制御フレームワークを提案する。
提案手法は,安全なCBFベースの制御層を構築するために使用される,安全でない操作領域を特定するための確率的列挙に依存する。
これらの実験は、効率的なナビゲーション動作を維持しながら、安全でない動作を補正する提案手法の能力を実証するものである。
論文 参考訳(メタデータ) (2025-04-30T13:47:25Z) - CEE: An Inference-Time Jailbreak Defense for Embodied Intelligence via Subspace Concept Rotation [23.07221882519171]
大規模言語モデル(LLM)は、エンボディード・インテリジェンス(Embodied Intelligence, EI)システムの認知的コアになりつつある。
我々は,概念強化工学(CEE)という,新規で効率的な推論時防衛フレームワークを提案する。
CEEはモデルの内部表現を直接操作することで、モデル固有の安全性メカニズムを強化する。
論文 参考訳(メタデータ) (2025-04-15T03:50:04Z) - Safe LLM-Controlled Robots with Formal Guarantees via Reachability Analysis [0.6749750044497732]
本稿では,Large Language Models (LLM) 制御ロボットを対象とした,データ駆動型リーチビリティ解析に基づく安全保証フレームワークを提案する。
我々のアプローチは、明示的な分析モデルに頼ることなく、安全でない行動に対する厳密な安全保証を提供する。
論文 参考訳(メタデータ) (2025-03-05T21:23:15Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - An Empirical Analysis of the Use of Real-Time Reachability for the
Safety Assurance of Autonomous Vehicles [7.1169864450668845]
本稿では,1/10スケールのオープンソース自動運転車プラットフォームの安全性を確保するために,シンプルなアーキテクチャの実装にリアルタイムリーチビリティアルゴリズムを提案する。
提案手法では,システムの将来状態に対するコントローラの判断の影響に着目して,基盤となるコントローラを解析する必要性を抽象化する。
論文 参考訳(メタデータ) (2022-05-03T11:12:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。