論文の概要: Safety Concerns and Mitigation Approaches Regarding the Use of Deep
Learning in Safety-Critical Perception Tasks
- arxiv url: http://arxiv.org/abs/2001.08001v1
- Date: Wed, 22 Jan 2020 13:22:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-07 17:44:56.212456
- Title: Safety Concerns and Mitigation Approaches Regarding the Use of Deep
Learning in Safety-Critical Perception Tasks
- Title(参考訳): 深層学習を用いた安全批判的知覚課題における安全性と緩和的アプローチ
- Authors: Oliver Willers, Sebastian Sudholt, Shervin Raafatnia, Stephanie
Abrecht
- Abstract要約: ディープラーニングが大規模に自律エージェントに使われていない主な理由は、安全上の懸念である。
ディープラーニングのアプローチは一般的にブラックボックスの振る舞いを示し、安全クリティカルな側面に関して評価することが難しい。
深層学習手法の安全性の議論を容易にするため,検討可能な緩和手法について広範な議論を行い,また,緩和手法がまだ欠落している点を概観する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning methods are widely regarded as indispensable when it comes to
designing perception pipelines for autonomous agents such as robots, drones or
automated vehicles. The main reasons, however, for deep learning not being used
for autonomous agents at large scale already are safety concerns. Deep learning
approaches typically exhibit a black-box behavior which makes it hard for them
to be evaluated with respect to safety-critical aspects. While there have been
some work on safety in deep learning, most papers typically focus on high-level
safety concerns. In this work, we seek to dive into the safety concerns of deep
learning methods and present a concise enumeration on a deeply technical level.
Additionally, we present extensive discussions on possible mitigation methods
and give an outlook regarding what mitigation methods are still missing in
order to facilitate an argumentation for the safety of a deep learning method.
- Abstract(参考訳): ディープラーニングの手法は、ロボットやドローン、自動運転車などの自律的なエージェントの知覚パイプラインを設計する上で不可欠だ、と広く考えられている。
しかし、ディープラーニングが大規模に自律エージェントに使われていない主な理由は、安全性に関する懸念である。
ディープラーニングアプローチは一般的にブラックボックスの振る舞いを示すため、安全クリティカルな側面に関して評価することが難しい。
ディープラーニングには安全性に関する研究がいくつかあるが、ほとんどの論文は高レベルの安全性に重点を置いている。
本研究は,深層学習手法の安全性に関する課題を掘り下げ,より技術的なレベルでの簡潔な列挙を提案する。
さらに, 本研究は, 深層学習手法の安全性の議論を容易にするため, 緩和手法の可能性を広く議論するとともに, 緩和手法の欠如について展望する。
関連論文リスト
- Handling Long-Term Safety and Uncertainty in Safe Reinforcement Learning [17.856459823003277]
安全性は、現実世界のロボットに強化学習技術が配備されるのを防ぐ重要な問題の1つだ。
本稿では,安全な探索手法であるATACOMを学習可能な制約で拡張することにより,そのギャップを埋める。
論文 参考訳(メタデータ) (2024-09-18T15:08:41Z) - Evaluation of Safety Constraints in Autonomous Navigation with Deep
Reinforcement Learning [62.997667081978825]
学習可能なナビゲーションポリシとして,セーフとアンセーフの2つを比較します。
安全なポリシは、制約をアカウントに含めますが、もう一方はそうではありません。
安全政策は、よりクリアランスの高い軌道を生成することができ(障害物によらず)、全体的な性能を犠牲にすることなく、トレーニング中に衝突を減らすことができることを示す。
論文 参考訳(メタデータ) (2023-07-27T01:04:57Z) - Evaluating Model-free Reinforcement Learning toward Safety-critical
Tasks [70.76757529955577]
本稿では、国家安全RLの観点から、この領域における先行研究を再考する。
安全最適化と安全予測を組み合わせた共同手法であるUnrolling Safety Layer (USL)を提案する。
この領域のさらなる研究を容易にするため、我々は関連するアルゴリズムを統一パイプラインで再現し、SafeRL-Kitに組み込む。
論文 参考訳(メタデータ) (2022-12-12T06:30:17Z) - Enhancing Navigational Safety in Crowded Environments using
Semantic-Deep-Reinforcement-Learning-based Navigation [5.706538676509249]
本研究では,高レベルの障害物情報からオブジェクト固有の安全ルールを学習する意味的な深層強化学習に基づくナビゲーション手法を提案する。
エージェントは、個々の安全距離をセマンティック情報に依存することにより、より安全にナビゲートできることを実証する。
論文 参考訳(メタデータ) (2021-09-23T10:50:47Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Learning to be Safe: Deep RL with a Safety Critic [72.00568333130391]
安全なRLへの自然な第一のアプローチは、ポリシーの動作に関する制約を手動で指定することである。
我々は,タスクと環境の1つのセットで安全であることを学習し,その学習した直観を用いて将来の行動を制限することを提案する。
論文 参考訳(メタデータ) (2020-10-27T20:53:20Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z) - Provably Safe PAC-MDP Exploration Using Analogies [87.41775218021044]
安全クリティカルドメインに強化学習を適用する上での課題は、探索と安全性のバランスをとる方法を理解することだ。
我々は,未知のダイナミックスを持つMDPにおいて,確実に安全な探索を行うアルゴリズムであるAnalogous Safe-State Exploration (ASE)を提案する。
提案手法は, PAC-MDP 感覚の準最適政策を安全に学習するために, 状態-作用対間の類似性を利用する。
論文 参考訳(メタデータ) (2020-07-07T15:50:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。