論文の概要: Regulating Safety and Security in Autonomous Robotic Systems
- arxiv url: http://arxiv.org/abs/2007.08006v1
- Date: Thu, 9 Jul 2020 16:33:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-10 20:56:28.426662
- Title: Regulating Safety and Security in Autonomous Robotic Systems
- Title(参考訳): 自律型ロボットシステムにおける安全と安全の規制
- Authors: Matt Luckcuck and Marie Farrell
- Abstract要約: 自律システムの規則は、しばしば定式化するのが困難である。
宇宙や原子力分野では、アプリケーションはより異なる傾向にあるため、一般的な安全原則が開発されている。
これにより、新しいアプリケーションが安全のために評価されるが、形式化することは困難である。
我々は、自律・ロボットシステムのガイドラインを開発するために、規制当局や宇宙・原子力分野のコミュニティと協力しています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous Robotics Systems are inherently safety-critical and have complex
safety issues to consider (for example, a safety failure can lead to a safety
failure). Before they are deployed, these systems of have to show evidence that
they adhere to a set of regulator-defined rules for safety and security. Formal
methods provide robust approaches to proving a system obeys given rules, but
formalising (usually natural language) rules can prove difficult. Regulations
specifically for autonomous systems are still being developed, but the safety
rules for a human operator are a good starting point when trying to show that
an autonomous system is safe. For applications of autonomous systems like
driverless cars and pilotless aircraft, there are clear rules for human
operators, which have been formalised and used to prove that an autonomous
system obeys some or all of these rules. However, in the space and nuclear
sectors applications are more likely to differ, so a set of general safety
principles has developed. This allows novel applications to be assessed for
their safety, but are difficult to formalise. To improve this situation, we are
collaborating with regulators and the community in the space and nuclear
sectors to develop guidelines for autonomous and robotic systems that are
amenable to robust (formal) verification. These activities also have the
benefit of bridging the gaps in knowledge within both the space or nuclear
communities and academia.
- Abstract(参考訳): 自律ロボットシステムは本質的に安全クリティカルであり、考慮すべき複雑な安全性問題(例えば、安全障害は安全障害につながる可能性がある)がある。
それらがデプロイされる前に、これらのシステムは、安全とセキュリティに関する規制が定義した一連の規則に準拠する証拠を示さなければならない。
形式的手法は、システムが与えられた規則に従うことを証明するための堅牢なアプローチを提供するが、(通常自然言語)規則の形式化は困難である。
自律システムに特化した規制はまだ開発されているが、人間のオペレーターの安全ルールは、自律システムが安全であることを示すための出発点である。
自動運転車やパイロットレス航空機などの自律システムの応用には、人間のオペレーターには明確なルールがある。
しかし、宇宙や原子力分野の応用は、より異なる傾向にあるため、一般的な安全原則が開発されている。
これにより、新しいアプリケーションはその安全性を評価できるが、形式化が難しい。
この状況を改善するため、我々は宇宙や原子力分野の規制当局やコミュニティと協力して、堅牢な(形式的な)検証に適した自律型およびロボットシステムのガイドラインを作成しています。
これらの活動は、宇宙と核コミュニティとアカデミアの両方における知識のギャップを埋める利点もある。
関連論文リスト
- No Trust without regulation! [0.0]
機械学習(ML)の性能の爆発と、その応用の可能性は、産業システムにおけるその利用を考慮し続けています。
安全と、その基準、規制、標準の問題については、いまだに片側に過度に残っています。
欧州委員会は、安全で信頼性があり、ヨーロッパの倫理的価値を尊重するAIベースのアプリケーションを統合するための、前進と強固なアプローチを構築するための基盤を築き上げた。
論文 参考訳(メタデータ) (2023-09-27T09:08:41Z) - Evaluation of Safety Constraints in Autonomous Navigation with Deep
Reinforcement Learning [62.997667081978825]
学習可能なナビゲーションポリシとして,セーフとアンセーフの2つを比較します。
安全なポリシは、制約をアカウントに含めますが、もう一方はそうではありません。
安全政策は、よりクリアランスの高い軌道を生成することができ(障害物によらず)、全体的な性能を犠牲にすることなく、トレーニング中に衝突を減らすことができることを示す。
論文 参考訳(メタデータ) (2023-07-27T01:04:57Z) - Negative Human Rights as a Basis for Long-term AI Safety and Regulation [1.5229257192293197]
有害な行動を認識して回避するために自律的なAIシステムを導く一般的な原則は、規制の拘束システムによって支持される必要がある。
技術的実装に十分な仕様でなければならない。
この記事は、このような原則の役割を負の人権がどのように満たすかを説明するために、法律からインスピレーションを得ている。
論文 参考訳(メタデータ) (2022-08-31T11:57:13Z) - Recursively Feasible Probabilistic Safe Online Learning with Control
Barrier Functions [63.18590014127461]
本稿では,CBFをベースとした安全クリティカルコントローラのモデル不確実性を考慮した再構成を提案する。
本研究では,ロバストな安全クリティカルコントローラの実現可能性について検討する。
次に、これらの条件を使って、イベントトリガーによるオンラインデータ収集戦略を考案します。
論文 参考訳(メタデータ) (2022-08-23T05:02:09Z) - Assurance Cases as Foundation Stone for Auditing AI-enabled and
Autonomous Systems: Workshop Results and Political Recommendations for Action
from the ExamAI Project [2.741266294612776]
ソフトウェア欠陥に対する安全基準の実施方法について検討する。
機能安全基準は、安全統合レベル(SIL)を使用して、どの安全対策を実施するかを定義する。
本稿では,個別に選択された,適用された措置が十分であると主張するための保証事例の利用を提案する。
論文 参考訳(メタデータ) (2022-08-17T10:05:07Z) - GoSafeOpt: Scalable Safe Exploration for Global Optimization of
Dynamical Systems [75.22958991597069]
本研究は,高次元システムに対するグローバルな最適ポリシーを安全に発見できる最初のアルゴリズムとして,GoSafeOptを提案する。
ロボットアーム上でのモデルフリーの安全な学習方法よりも,GoSafeOptの方が優れていることを示す。
論文 参考訳(メタデータ) (2022-01-24T10:05:44Z) - AdvSim: Generating Safety-Critical Scenarios for Self-Driving Vehicles [76.46575807165729]
我々は,任意のLiDARベースの自律システムに対して,安全クリティカルなシナリオを生成するための,敵対的フレームワークであるAdvSimを提案する。
センサデータから直接シミュレートすることにより、完全な自律スタックに対して安全クリティカルな敵シナリオを得る。
論文 参考訳(メタデータ) (2021-01-16T23:23:12Z) - Proceedings Second Workshop on Formal Methods for Autonomous Systems [0.0]
FMASの目標は、正式な方法で自律システムの課題に取り組む先進的な研究者を集結させることだ。
私たちは、自律システムやロボットシステムを特定し、モデル化し、検証するための正式な方法を使うことに興味があります。
論文 参考訳(メタデータ) (2020-12-02T13:08:57Z) - Safe Reinforcement Learning via Curriculum Induction [94.67835258431202]
安全クリティカルなアプリケーションでは、自律エージェントはミスが非常にコストがかかる環境で学ぶ必要がある。
既存の安全な強化学習手法は、エージェントが危険な状況を避けるために、事前にエージェントを頼りにしている。
本稿では,エージェントが自動インストラクターの指導の下で学習する,人間の指導にインスパイアされた代替手法を提案する。
論文 参考訳(メタデータ) (2020-06-22T10:48:17Z) - Hacia los Comit\'es de \'Etica en Inteligencia Artificial [68.8204255655161]
以下のルールを監督できるルールと専門組織を作成することが最優先である。
この研究は、大学において、人工知能に特化した倫理委員会や委員会を創設することを提案する。
論文 参考訳(メタデータ) (2020-02-11T23:48:31Z) - Towards a Framework for Certification of Reliable Autonomous Systems [3.3861948721202233]
計算システムは、人間の監督や制御なしに独自の決定を下したり、独自の行動を取ることができる場合、自律的である。
例えば、無人航空システムを民間空域で自律的に使用するために、どうやって認定できるのか?
ここでは、自律システムの信頼性の高い動作を提供するために、何が必要なのかを分析する。
我々は、研究者、技術者、規制当局への挑戦を含む規制ガイドラインの策定に向けたロードマップを提案する。
論文 参考訳(メタデータ) (2020-01-24T18:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。