論文の概要: Security and Safety Aspects of AI in Industry Applications
- arxiv url: http://arxiv.org/abs/2207.10809v1
- Date: Sat, 16 Jul 2022 16:41:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-31 14:25:52.410342
- Title: Security and Safety Aspects of AI in Industry Applications
- Title(参考訳): 産業アプリケーションにおけるAIのセキュリティと安全性
- Authors: Hans Dermot Doran
- Abstract要約: 今後5~10年で業界に影響を及ぼすであろう機械学習の安全性とセキュリティの領域における課題を要約する。
安全およびセキュリティ関連ドメインの根底にある問題の報告、例えば、敵攻撃はアーリーアダプターを不安定にしている。
現実の応用可能性の問題は、これらの技術を適用するリスクを評価することにある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this relatively informal discussion-paper we summarise issues in the
domains of safety and security in machine learning that will affect industry
sectors in the next five to ten years. Various products using neural network
classification, most often in vision related applications but also in
predictive maintenance, have been researched and applied in real-world
applications in recent years. Nevertheless, reports of underlying problems in
both safety and security related domains, for instance adversarial attacks have
unsettled early adopters and are threatening to hinder wider scale adoption of
this technology. The problem for real-world applicability lies in being able to
assess the risk of applying these technologies. In this discussion-paper we
describe the process of arriving at a machine-learnt neural network classifier
pointing out safety and security vulnerabilities in that workflow, citing
relevant research where appropriate.
- Abstract(参考訳): この比較的非公式な議論論文では、今後5~10年で業界に影響を及ぼす機械学習の安全性とセキュリティの領域の問題をまとめています。
ニューラルネットワークの分類を用いた各種製品は、視覚関連アプリケーションでもよく見られるが、予測保守でも近年研究され、実世界の応用に応用されている。
しかし、安全とセキュリティ関連ドメインの根底にある問題の報告、例えば、敵攻撃はアーリーアダプターを不安に陥れ、この技術の大規模な採用を妨げる恐れがある。
実世界の適用可能性の問題は、これらの技術を適用するリスクを評価できることだ。
本論文では,そのワークフローの安全性とセキュリティ上の脆弱性を指摘する機械学習ニューラルネットワーク分類器に到達するプロセスについて述べる。
関連論文リスト
- Safetywashing: Do AI Safety Benchmarks Actually Measure Safety Progress? [59.96471873997733]
我々は、より有意義な安全指標を開発するための実証的な基盤を提案し、機械学習研究の文脈でAIの安全性を定義する。
我々は、AI安全研究のためのより厳格なフレームワークを提供し、安全性評価の科学を前進させ、測定可能な進歩への道筋を明らかにすることを目指している。
論文 参考訳(メタデータ) (2024-07-31T17:59:24Z) - Scaling #DNN-Verification Tools with Efficient Bound Propagation and
Parallel Computing [57.49021927832259]
ディープニューラルネットワーク(DNN)は多くのシナリオで異常な結果を示した強力なツールです。
しかし、それらの複雑な設計と透明性の欠如は、現実世界のアプリケーションに適用する際の安全性上の懸念を提起する。
DNNの形式的検証(FV)は、安全面の証明可能な保証を提供する貴重なソリューションとして登場した。
論文 参考訳(メタデータ) (2023-12-10T13:51:25Z) - Proceedings of the Artificial Intelligence for Cyber Security (AICS)
Workshop at AAAI 2022 [55.573187938617636]
ワークショップは、サイバーセキュリティの問題へのAIの適用に焦点を当てる。
サイバーシステムは大量のデータを生成し、これを効果的に活用することは人間の能力を超えます。
論文 参考訳(メタデータ) (2022-02-28T18:27:41Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z) - Adversarial Machine Learning Attacks and Defense Methods in the Cyber
Security Domain [58.30296637276011]
本稿では,機械学習技術に基づくセキュリティソリューションに対する敵攻撃に関する最新の研究を要約する。
サイバーセキュリティドメインでエンドツーエンドの敵攻撃を実装するという、ユニークな課題を議論するのは、これが初めてである。
論文 参考訳(メタデータ) (2020-07-05T18:22:40Z) - Grand Challenges for Embedded Security Research in a Connected World [6.1916614285252]
コンピューティングコミュニティコンソーシアム(CCC)は、これらの問題を調査する1日間のビジョンワークショップを開催した。
報告書はそのワークショップの結果を要約し、今後5~10年にわたって研究と教育の戦略的目標のリストを作成している。
論文 参考訳(メタデータ) (2020-05-13T21:01:57Z) - A Review of Computer Vision Methods in Network Security [11.380790116533912]
ネットワークセキュリティはこれまで以上に重要な領域となっている。
従来の機械学習手法は、ネットワークセキュリティの文脈で頻繁に用いられてきた。
近年、コンピュータビジョンの驚異的な成長は、主に畳み込みニューラルネットワークの領域の進歩によって引き起こされた。
論文 参考訳(メタデータ) (2020-05-07T08:29:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。