論文の概要: Safe Uncertainty-Aware Learning of Robotic Suturing
- arxiv url: http://arxiv.org/abs/2505.16596v1
- Date: Thu, 22 May 2025 12:31:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:48.282874
- Title: Safe Uncertainty-Aware Learning of Robotic Suturing
- Title(参考訳): ロボットサテュアの安全不確実性認識学習
- Authors: Wilbert Peter Empleo, Yitaek Kim, Hansoul Kim, Thiusius Rajeeth Savarimuthu, Iñigo Iturrate,
- Abstract要約: ミニマル補助侵襲手術は現在、訓練された外科医によって完全に手動で制御されている。
最近の研究は、有望な適応性を示す人工知能手法を活用している。
本稿では,安全かつ不確実性を考慮した学習手法の枠組みを提案する。
- 参考スコア(独自算出の注目度): 0.7864304771129751
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robot-Assisted Minimally Invasive Surgery is currently fully manually controlled by a trained surgeon. Automating this has great potential for alleviating issues, e.g., physical strain, highly repetitive tasks, and shortages of trained surgeons. For these reasons, recent works have utilized Artificial Intelligence methods, which show promising adaptability. Despite these advances, there is skepticism of these methods because they lack explainability and robust safety guarantees. This paper presents a framework for a safe, uncertainty-aware learning method. We train an Ensemble Model of Diffusion Policies using expert demonstrations of needle insertion. Using an Ensemble model, we can quantify the policy's epistemic uncertainty, which is used to determine Out-Of-Distribution scenarios. This allows the system to release control back to the surgeon in the event of an unsafe scenario. Additionally, we implement a model-free Control Barrier Function to place formal safety guarantees on the predicted action. We experimentally evaluate our proposed framework using a state-of-the-art robotic suturing simulator. We evaluate multiple scenarios, such as dropping the needle, moving the camera, and moving the phantom. The learned policy is robust to these perturbations, showing corrective behaviors and generalization, and it is possible to detect Out-Of-Distribution scenarios. We further demonstrate that the Control Barrier Function successfully limits the action to remain within our specified safety set in the case of unsafe predictions.
- Abstract(参考訳): ロボットによる最小侵襲手術は現在、訓練された外科医によって完全に手動で制御されている。
これを自動化することは、例えば、身体的緊張、非常に反復的なタスク、訓練された外科医の不足といった問題を緩和する大きな可能性を持つ。
これらの理由から、最近の研究は、有望な適応性を示す人工知能手法を活用している。
これらの進歩にもかかわらず、説明可能性や堅牢な安全保証が欠如しているため、これらの手法には懐疑論がある。
本稿では,安全かつ不確実性を考慮した学習手法の枠組みを提案する。
針挿入の専門的なデモンストレーションを用いて拡散ポリシのアンサンブルモデルを訓練する。
Ensembleモデルを用いることで、アウトオフ・オフ・ディストリビューションのシナリオを決定するために使用される、ポリシーのエピステマティックな不確実性を定量化することができる。
これにより、安全でないシナリオが発生した場合、システムは外科医に制御を解放することができる。
さらに,モデルフリーの制御バリア関数を実装し,予測された動作に対して正式な安全保証を行う。
現状のロボット縫合シミュレータを用いて,提案手法を実験的に評価した。
針を落としたり、カメラを動かしたり、幻を動かしたりするなど、複数のシナリオを評価した。
学習方針はこれらの摂動に対して堅牢であり、修正行動と一般化を示し、アウトオフ・オフ・ディストリビューションのシナリオを検出することができる。
さらに、制御バリア関数は、安全でない予測の場合、指定された安全セット内に留まる動作をうまく制限することを示した。
関連論文リスト
- Designing Control Barrier Function via Probabilistic Enumeration for Safe Reinforcement Learning Navigation [55.02966123945644]
本稿では,ニューラルネットワーク検証技術を利用して制御障壁関数(CBF)とポリシー修正機構の設計を行う階層型制御フレームワークを提案する。
提案手法は,安全なCBFベースの制御層を構築するために使用される,安全でない操作領域を特定するための確率的列挙に依存する。
これらの実験は、効率的なナビゲーション動作を維持しながら、安全でない動作を補正する提案手法の能力を実証するものである。
論文 参考訳(メタデータ) (2025-04-30T13:47:25Z) - Deception Game: Closing the Safety-Learning Loop in Interactive Robot
Autonomy [7.915956857741506]
既存の安全手法は、ロボットが実行時に学習し適応する能力を無視することが多く、過度に保守的な行動を引き起こす。
本稿では,ロボットの進化する不確実性を明示的に考慮した安全制御ポリシを合成するための,新しいクローズドループパラダイムを提案する。
論文 参考訳(メタデータ) (2023-09-03T20:34:01Z) - Recursively Feasible Probabilistic Safe Online Learning with Control Barrier Functions [60.26921219698514]
CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
次に、結果の安全制御器のポイントワイズ実現可能性条件を示す。
これらの条件を利用して、イベントトリガーによるオンラインデータ収集戦略を考案する。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - ProBF: Learning Probabilistic Safety Certificates with Barrier Functions [31.203344483485843]
制御バリア関数は、地平系力学にアクセスできれば安全を保証できる便利なツールである。
実際には、システムダイナミクスに関する不正確な知識があるため、安全でない振る舞いにつながる可能性があります。
本手法の有効性をSegwayとQuadrotorのシミュレーション実験により示す。
論文 参考訳(メタデータ) (2021-12-22T20:18:18Z) - Learn Zero-Constraint-Violation Policy in Model-Free Constrained
Reinforcement Learning [7.138691584246846]
本稿では,安全指向エネルギー関数を用いてポリシー更新を限定するセーフセットアクタクリティカル(SSAC)アルゴリズムを提案する。
安全指数は、潜在的に危険な行動のために急速に増加するように設計されている。
我々は、値関数の学習と同様に、モデルのない方法でエネルギー関数を学習できると主張する。
論文 参考訳(メタデータ) (2021-11-25T07:24:30Z) - Learning to Be Cautious [47.92658607280631]
自律システムが直面する可能性のあるあらゆる状況や、どんな行動が悪い結果を避けるのが最善かを予測することは不可能である。
現在のアプローチでは、通常、タスク固有の安全情報や明示的な慎重な振る舞いをシステムに組み込む。
注意深い行動がますます不要になるタスクのシーケンスと、システムが注意深いことを学習できることを実証するアルゴリズムを提示する。
論文 参考訳(メタデータ) (2021-10-29T16:52:45Z) - Sample-Efficient Safety Assurances using Conformal Prediction [57.92013073974406]
早期警戒システムは、安全でない状況が差し迫ったときに警告を提供することができる。
安全性を確実に向上させるためには、これらの警告システムは証明可能な偽陰性率を持つべきである。
本稿では,共形予測と呼ばれる統計的推論手法とロボット・環境力学シミュレータを組み合わせたフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-28T23:00:30Z) - Driving Through Ghosts: Behavioral Cloning with False Positives [42.31740099795908]
本稿では,不完全な知覚を保守的でないまま安全に活用できる行動クローニング手法を提案する。
本稿では,物体知覚システムの雑音出力を符号化する,新しい確率論的鳥眼ビューセマンティックグリッドを提案する。
そして、専門家によるデモンストレーションを利用して、この確率的表現を用いて模擬駆動ポリシーを学ぶ。
論文 参考訳(メタデータ) (2020-08-29T12:10:23Z) - Safe Reinforcement Learning via Curriculum Induction [94.67835258431202]
安全クリティカルなアプリケーションでは、自律エージェントはミスが非常にコストがかかる環境で学ぶ必要がある。
既存の安全な強化学習手法は、エージェントが危険な状況を避けるために、事前にエージェントを頼りにしている。
本稿では,エージェントが自動インストラクターの指導の下で学習する,人間の指導にインスパイアされた代替手法を提案する。
論文 参考訳(メタデータ) (2020-06-22T10:48:17Z) - Safe reinforcement learning for probabilistic reachability and safety
specifications: A Lyapunov-based approach [2.741266294612776]
安全運転の最大確率を学習するモデルフリー安全仕様法を提案する。
提案手法は, 各政策改善段階を抑制するための安全な政策に関して, リャプノフ関数を構築する。
安全集合と呼ばれる安全な操作範囲を決定する一連の安全なポリシーを導出する。
論文 参考訳(メタデータ) (2020-02-24T09:20:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。