論文の概要: Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety
- arxiv url: http://arxiv.org/abs/2104.14235v1
- Date: Thu, 29 Apr 2021 09:54:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-30 20:31:55.387731
- Title: Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety
- Title(参考訳): Inspect, Understand, Overcome: AI安全性のための実践的手法の調査
- Authors: Sebastian Houben, Stephanie Abrecht, Maram Akila, Andreas B\"ar, Felix
Brockherde, Patrick Feifel, Tim Fingscheidt, Sujan Sai Gannamaneni, Seyed
Eghbal Ghobadi, Ahmed Hammam, Anselm Haselhoff, Felix Hauser, Christian
Heinzemann, Marco Hoffmann, Nikhil Kapoor, Falk Kappel, Marvin Klingner, Jan
Kronenberger, Fabian K\"uppers, Jonas L\"ohdefink, Michael Mlynarski, Michael
Mock, Firas Mualla, Svetlana Pavlitskaya, Maximilian Poretschkin, Alexander
Pohl, Varun Ravi-Kumar, Julia Rosenzweig, Matthias Rottmann, Stefan R\"uping,
Timo S\"amann, Jan David Schneider, Elena Schulz, Gesina Schwalbe, Joachim
Sicking, Toshika Srivastava, Serin Varghese, Michael Weber, Sebastian
Wirkert, Tim Wirtz, Matthias Woehrle
- Abstract要約: 安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
- 参考スコア(独自算出の注目度): 54.478842696269304
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The use of deep neural networks (DNNs) in safety-critical applications like
mobile health and autonomous driving is challenging due to numerous
model-inherent shortcomings. These shortcomings are diverse and range from a
lack of generalization over insufficient interpretability to problems with
malicious inputs. Cyber-physical systems employing DNNs are therefore likely to
suffer from safety concerns. In recent years, a zoo of state-of-the-art
techniques aiming to address these safety concerns has emerged. This work
provides a structured and broad overview of them. We first identify categories
of insufficiencies to then describe research activities aiming at their
detection, quantification, or mitigation. Our paper addresses both machine
learning experts and safety engineers: The former ones might profit from the
broad range of machine learning topics covered and discussions on limitations
of recent methods. The latter ones might gain insights into the specifics of
modern ML methods. We moreover hope that our contribution fuels discussions on
desiderata for ML systems and strategies on how to propel existing approaches
accordingly.
- Abstract(参考訳): モバイルヘルスや自動運転といった安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多くのモデル固有の欠点のために困難である。
これらの欠点は多様であり、不十分な解釈よりも一般化の欠如から悪意のある入力の問題まで様々である。
したがって、DNNを用いたサイバー物理システムは、安全上の懸念に悩まされる可能性が高い。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
この作業は、構造化され、より広い概要を提供する。
まず,その検出,定量化,緩和を目的とした研究活動を記述するために,不足のカテゴリを特定する。
我々の論文は、機械学習の専門家と安全エンジニアの両方を扱っている。 前者は、最近の方法の制限に関する議論やカバーする幅広い機械学習のトピックから利益を得るかもしれない。
後者は、現代のMLメソッドの具体性に関する洞察を得るかもしれない。
さらに、当社のコントリビューションは、mlシステムのdesiderataに関する議論と、既存のアプローチを適切に推進するための戦略に拍車をかけることを願っています。
関連論文リスト
- Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - Review on the Feasibility of Adversarial Evasion Attacks and Defenses
for Network Intrusion Detection Systems [0.7829352305480285]
最近の研究は、サイバーセキュリティ分野における多くの懸念を提起している。
機械学習アルゴリズムに基づくセキュリティシステムに対する攻撃の可能性について研究する研究者が増えている。
論文 参考訳(メタデータ) (2023-03-13T11:00:05Z) - Security and Safety Aspects of AI in Industry Applications [0.0]
今後5~10年で業界に影響を及ぼすであろう機械学習の安全性とセキュリティの領域における課題を要約する。
安全およびセキュリティ関連ドメインの根底にある問題の報告、例えば、敵攻撃はアーリーアダプターを不安定にしている。
現実の応用可能性の問題は、これらの技術を適用するリスクを評価することにある。
論文 参考訳(メタデータ) (2022-07-16T16:41:00Z) - Practical Machine Learning Safety: A Survey and Primer [81.73857913779534]
自動運転車のような安全クリティカルなアプリケーションにおける機械学習アルゴリズムのオープンワールド展開は、さまざまなML脆弱性に対処する必要がある。
一般化エラーを低減し、ドメイン適応を実現し、外乱例や敵攻撃を検出するための新しいモデルと訓練技術。
我々の組織は、MLアルゴリズムの信頼性を異なる側面から向上するために、最先端のML技術を安全戦略にマッピングする。
論文 参考訳(メタデータ) (2021-06-09T05:56:42Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z) - Security and Machine Learning in the Real World [33.40597438876848]
私たちは、大規模にデプロイされた機械学習ソフトウェア製品のセキュリティを評価し、システムのセキュリティビューを含む会話を広げるために、私たちの経験に基づいています。
本稿では,機械学習モジュールをデプロイする実践者がシステムを保護するために使用できる,短期的な緩和提案のリストを提案する。
論文 参考訳(メタデータ) (2020-07-13T16:57:12Z) - Adversarial Machine Learning Attacks and Defense Methods in the Cyber
Security Domain [58.30296637276011]
本稿では,機械学習技術に基づくセキュリティソリューションに対する敵攻撃に関する最新の研究を要約する。
サイバーセキュリティドメインでエンドツーエンドの敵攻撃を実装するという、ユニークな課題を議論するのは、これが初めてである。
論文 参考訳(メタデータ) (2020-07-05T18:22:40Z) - Interpreting Machine Learning Malware Detectors Which Leverage N-gram
Analysis [2.6397379133308214]
サイバーセキュリティアナリストは、常にルールベースや署名ベースの検出と同じくらい解釈可能で理解可能なソリューションを好む。
本研究の目的は,MLベースのマルウェア検出装置に適用した場合の,最先端のMLモデルの解釈可能性の評価である。
論文 参考訳(メタデータ) (2020-01-27T19:10:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。