論文の概要: Regulating Safety and Security in Autonomous Robotic Systems
- arxiv url: http://arxiv.org/abs/2007.08006v1
- Date: Thu, 9 Jul 2020 16:33:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-10 20:56:28.426662
- Title: Regulating Safety and Security in Autonomous Robotic Systems
- Title(参考訳): 自律型ロボットシステムにおける安全と安全の規制
- Authors: Matt Luckcuck and Marie Farrell
- Abstract要約: 自律システムの規則は、しばしば定式化するのが困難である。
宇宙や原子力分野では、アプリケーションはより異なる傾向にあるため、一般的な安全原則が開発されている。
これにより、新しいアプリケーションが安全のために評価されるが、形式化することは困難である。
我々は、自律・ロボットシステムのガイドラインを開発するために、規制当局や宇宙・原子力分野のコミュニティと協力しています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous Robotics Systems are inherently safety-critical and have complex
safety issues to consider (for example, a safety failure can lead to a safety
failure). Before they are deployed, these systems of have to show evidence that
they adhere to a set of regulator-defined rules for safety and security. Formal
methods provide robust approaches to proving a system obeys given rules, but
formalising (usually natural language) rules can prove difficult. Regulations
specifically for autonomous systems are still being developed, but the safety
rules for a human operator are a good starting point when trying to show that
an autonomous system is safe. For applications of autonomous systems like
driverless cars and pilotless aircraft, there are clear rules for human
operators, which have been formalised and used to prove that an autonomous
system obeys some or all of these rules. However, in the space and nuclear
sectors applications are more likely to differ, so a set of general safety
principles has developed. This allows novel applications to be assessed for
their safety, but are difficult to formalise. To improve this situation, we are
collaborating with regulators and the community in the space and nuclear
sectors to develop guidelines for autonomous and robotic systems that are
amenable to robust (formal) verification. These activities also have the
benefit of bridging the gaps in knowledge within both the space or nuclear
communities and academia.
- Abstract(参考訳): 自律ロボットシステムは本質的に安全クリティカルであり、考慮すべき複雑な安全性問題(例えば、安全障害は安全障害につながる可能性がある)がある。
それらがデプロイされる前に、これらのシステムは、安全とセキュリティに関する規制が定義した一連の規則に準拠する証拠を示さなければならない。
形式的手法は、システムが与えられた規則に従うことを証明するための堅牢なアプローチを提供するが、(通常自然言語)規則の形式化は困難である。
自律システムに特化した規制はまだ開発されているが、人間のオペレーターの安全ルールは、自律システムが安全であることを示すための出発点である。
自動運転車やパイロットレス航空機などの自律システムの応用には、人間のオペレーターには明確なルールがある。
しかし、宇宙や原子力分野の応用は、より異なる傾向にあるため、一般的な安全原則が開発されている。
これにより、新しいアプリケーションはその安全性を評価できるが、形式化が難しい。
この状況を改善するため、我々は宇宙や原子力分野の規制当局やコミュニティと協力して、堅牢な(形式的な)検証に適した自律型およびロボットシステムのガイドラインを作成しています。
これらの活動は、宇宙と核コミュニティとアカデミアの両方における知識のギャップを埋める利点もある。
関連論文リスト
- Defining and Evaluating Physical Safety for Large Language Models [62.4971588282174]
大型言語モデル (LLM) は、ドローンのようなロボットシステムを制御するためにますます使われている。
現実世界のアプリケーションに物理的な脅威や害をもたらすリスクは、まだ解明されていない。
我々は,ドローンの物理的安全性リスクを,(1)目標脅威,(2)目標脅威,(3)インフラ攻撃,(4)規制違反の4つのカテゴリに分類する。
論文 参考訳(メタデータ) (2024-11-04T17:41:25Z) - Safety cases for frontier AI [0.8987776881291144]
安全事例とは、ある運用状況においてシステムが十分に安全であるという証拠によって支持された構造化された議論を行う報告である。
安全ケースは、航空や原子力など他の安全上重要な産業ですでに一般的である。
業界における自己規制と政府の規制の両方において、これらがフロンティアAIガバナンスにおいて有用なツールである理由を説明します。
論文 参考訳(メタデータ) (2024-10-28T22:08:28Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - Redefining Safety for Autonomous Vehicles [0.9208007322096532]
コンピュータベースのシステムの安全性に関する既存の定義と関連する概念的枠組みを再考する必要がある。
人間の運転者なしでの運転は、安全上の懸念を劇的に増大させる。
コアシステムの安全性に関する概念を更新する。
論文 参考訳(メタデータ) (2024-04-25T17:22:43Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - No Trust without regulation! [0.0]
機械学習(ML)の性能の爆発と、その応用の可能性は、産業システムにおけるその利用を考慮し続けています。
安全と、その基準、規制、標準の問題については、いまだに片側に過度に残っています。
欧州委員会は、安全で信頼性があり、ヨーロッパの倫理的価値を尊重するAIベースのアプリケーションを統合するための、前進と強固なアプローチを構築するための基盤を築き上げた。
論文 参考訳(メタデータ) (2023-09-27T09:08:41Z) - When Authentication Is Not Enough: On the Security of Behavioral-Based Driver Authentication Systems [53.2306792009435]
我々はランダムフォレストとリカレントニューラルネットワークアーキテクチャに基づく2つの軽量ドライバ認証システムを開発した。
我々は,SMARTCANとGANCANという2つの新しいエスケープアタックを開発することで,これらのシステムに対する攻撃を最初に提案する。
コントリビューションを通じて、これらのシステムを安全に採用する実践者を支援し、車の盗難を軽減し、ドライバーのセキュリティを高める。
論文 参考訳(メタデータ) (2023-06-09T14:33:26Z) - Negative Human Rights as a Basis for Long-term AI Safety and Regulation [1.5229257192293197]
有害な行動を認識して回避するために自律的なAIシステムを導く一般的な原則は、規制の拘束システムによって支持される必要がある。
技術的実装に十分な仕様でなければならない。
この記事は、このような原則の役割を負の人権がどのように満たすかを説明するために、法律からインスピレーションを得ている。
論文 参考訳(メタデータ) (2022-08-31T11:57:13Z) - AdvSim: Generating Safety-Critical Scenarios for Self-Driving Vehicles [76.46575807165729]
我々は,任意のLiDARベースの自律システムに対して,安全クリティカルなシナリオを生成するための,敵対的フレームワークであるAdvSimを提案する。
センサデータから直接シミュレートすることにより、完全な自律スタックに対して安全クリティカルな敵シナリオを得る。
論文 参考訳(メタデータ) (2021-01-16T23:23:12Z) - Safe Reinforcement Learning via Curriculum Induction [94.67835258431202]
安全クリティカルなアプリケーションでは、自律エージェントはミスが非常にコストがかかる環境で学ぶ必要がある。
既存の安全な強化学習手法は、エージェントが危険な状況を避けるために、事前にエージェントを頼りにしている。
本稿では,エージェントが自動インストラクターの指導の下で学習する,人間の指導にインスパイアされた代替手法を提案する。
論文 参考訳(メタデータ) (2020-06-22T10:48:17Z) - Towards a Framework for Certification of Reliable Autonomous Systems [3.3861948721202233]
計算システムは、人間の監督や制御なしに独自の決定を下したり、独自の行動を取ることができる場合、自律的である。
例えば、無人航空システムを民間空域で自律的に使用するために、どうやって認定できるのか?
ここでは、自律システムの信頼性の高い動作を提供するために、何が必要なのかを分析する。
我々は、研究者、技術者、規制当局への挑戦を含む規制ガイドラインの策定に向けたロードマップを提案する。
論文 参考訳(メタデータ) (2020-01-24T18:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。