論文の概要: Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety
- arxiv url: http://arxiv.org/abs/2104.14235v1
- Date: Thu, 29 Apr 2021 09:54:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-30 20:31:55.387731
- Title: Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety
- Title(参考訳): Inspect, Understand, Overcome: AI安全性のための実践的手法の調査
- Authors: Sebastian Houben, Stephanie Abrecht, Maram Akila, Andreas B\"ar, Felix
Brockherde, Patrick Feifel, Tim Fingscheidt, Sujan Sai Gannamaneni, Seyed
Eghbal Ghobadi, Ahmed Hammam, Anselm Haselhoff, Felix Hauser, Christian
Heinzemann, Marco Hoffmann, Nikhil Kapoor, Falk Kappel, Marvin Klingner, Jan
Kronenberger, Fabian K\"uppers, Jonas L\"ohdefink, Michael Mlynarski, Michael
Mock, Firas Mualla, Svetlana Pavlitskaya, Maximilian Poretschkin, Alexander
Pohl, Varun Ravi-Kumar, Julia Rosenzweig, Matthias Rottmann, Stefan R\"uping,
Timo S\"amann, Jan David Schneider, Elena Schulz, Gesina Schwalbe, Joachim
Sicking, Toshika Srivastava, Serin Varghese, Michael Weber, Sebastian
Wirkert, Tim Wirtz, Matthias Woehrle
- Abstract要約: 安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
- 参考スコア(独自算出の注目度): 54.478842696269304
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The use of deep neural networks (DNNs) in safety-critical applications like
mobile health and autonomous driving is challenging due to numerous
model-inherent shortcomings. These shortcomings are diverse and range from a
lack of generalization over insufficient interpretability to problems with
malicious inputs. Cyber-physical systems employing DNNs are therefore likely to
suffer from safety concerns. In recent years, a zoo of state-of-the-art
techniques aiming to address these safety concerns has emerged. This work
provides a structured and broad overview of them. We first identify categories
of insufficiencies to then describe research activities aiming at their
detection, quantification, or mitigation. Our paper addresses both machine
learning experts and safety engineers: The former ones might profit from the
broad range of machine learning topics covered and discussions on limitations
of recent methods. The latter ones might gain insights into the specifics of
modern ML methods. We moreover hope that our contribution fuels discussions on
desiderata for ML systems and strategies on how to propel existing approaches
accordingly.
- Abstract(参考訳): モバイルヘルスや自動運転といった安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多くのモデル固有の欠点のために困難である。
これらの欠点は多様であり、不十分な解釈よりも一般化の欠如から悪意のある入力の問題まで様々である。
したがって、DNNを用いたサイバー物理システムは、安全上の懸念に悩まされる可能性が高い。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
この作業は、構造化され、より広い概要を提供する。
まず,その検出,定量化,緩和を目的とした研究活動を記述するために,不足のカテゴリを特定する。
我々の論文は、機械学習の専門家と安全エンジニアの両方を扱っている。 前者は、最近の方法の制限に関する議論やカバーする幅広い機械学習のトピックから利益を得るかもしれない。
後者は、現代のMLメソッドの具体性に関する洞察を得るかもしれない。
さらに、当社のコントリビューションは、mlシステムのdesiderataに関する議論と、既存のアプローチを適切に推進するための戦略に拍車をかけることを願っています。
関連論文リスト
- Open Problems in Machine Unlearning for AI Safety [61.43515658834902]
特定の種類の知識を選択的に忘れたり、抑圧したりするマシンアンラーニングは、プライバシとデータ削除タスクの約束を示している。
本稿では,アンラーニングがAI安全性の包括的ソリューションとして機能することを防止するための重要な制約を特定する。
論文 参考訳(メタデータ) (2025-01-09T03:59:10Z) - Safety Monitoring of Machine Learning Perception Functions: a Survey [7.193217430660011]
機械学習の予測が安全クリティカルなアプリケーションで使用されるとき、新しい信頼性の課題が発生する。
安全モニタなどのフォールトトレランス機構の使用は、システムの安全な動作を保証するために不可欠である。
本稿では,MLを用いた認識機能の安全性監視に関する文献的考察を行う。
論文 参考訳(メタデータ) (2024-12-09T10:58:50Z) - Security and Safety Aspects of AI in Industry Applications [0.0]
今後5~10年で業界に影響を及ぼすであろう機械学習の安全性とセキュリティの領域における課題を要約する。
安全およびセキュリティ関連ドメインの根底にある問題の報告、例えば、敵攻撃はアーリーアダプターを不安定にしている。
現実の応用可能性の問題は、これらの技術を適用するリスクを評価することにある。
論文 参考訳(メタデータ) (2022-07-16T16:41:00Z) - Practical Machine Learning Safety: A Survey and Primer [81.73857913779534]
自動運転車のような安全クリティカルなアプリケーションにおける機械学習アルゴリズムのオープンワールド展開は、さまざまなML脆弱性に対処する必要がある。
一般化エラーを低減し、ドメイン適応を実現し、外乱例や敵攻撃を検出するための新しいモデルと訓練技術。
我々の組織は、MLアルゴリズムの信頼性を異なる側面から向上するために、最先端のML技術を安全戦略にマッピングする。
論文 参考訳(メタデータ) (2021-06-09T05:56:42Z) - Increasing the Confidence of Deep Neural Networks by Coverage Analysis [71.57324258813674]
本稿では、異なる安全でない入力に対してモデルを強化するために、カバレッジパラダイムに基づく軽量な監視アーキテクチャを提案する。
実験結果から,提案手法は強力な対向例とアウト・オブ・ディストリビューション・インプットの両方を検出するのに有効であることが示唆された。
論文 参考訳(メタデータ) (2021-01-28T16:38:26Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z) - Security and Machine Learning in the Real World [33.40597438876848]
私たちは、大規模にデプロイされた機械学習ソフトウェア製品のセキュリティを評価し、システムのセキュリティビューを含む会話を広げるために、私たちの経験に基づいています。
本稿では,機械学習モジュールをデプロイする実践者がシステムを保護するために使用できる,短期的な緩和提案のリストを提案する。
論文 参考訳(メタデータ) (2020-07-13T16:57:12Z) - Adversarial Machine Learning Attacks and Defense Methods in the Cyber
Security Domain [58.30296637276011]
本稿では,機械学習技術に基づくセキュリティソリューションに対する敵攻撃に関する最新の研究を要約する。
サイバーセキュリティドメインでエンドツーエンドの敵攻撃を実装するという、ユニークな課題を議論するのは、これが初めてである。
論文 参考訳(メタデータ) (2020-07-05T18:22:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。