論文の概要: Identifying and Exploiting Structures for Reliable Deep Learning
- arxiv url: http://arxiv.org/abs/2108.07083v1
- Date: Mon, 16 Aug 2021 13:40:01 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-17 18:54:56.790773
- Title: Identifying and Exploiting Structures for Reliable Deep Learning
- Title(参考訳): 信頼できる深層学習のための構造同定と活用
- Authors: Amartya Sanyal
- Abstract要約: ディープラーニングシステムを現実の世界で使用するためには信頼性が低い、いくつかの問題に目を向ける。
これには、敵攻撃に対する脆弱性、誤った予測を過信していること、プライベートデータの扱いに適さないことなどが含まれる。
本稿では,これらの問題を現実的に緩和するための計算コストの低いアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 4.94950858749529
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning research has recently witnessed an impressively fast-paced
progress in a wide range of tasks including computer vision, natural language
processing, and reinforcement learning. The extraordinary performance of these
systems often gives the impression that they can be used to revolutionise our
lives for the better. However, as recent works point out, these systems suffer
from several issues that make them unreliable for use in the real world,
including vulnerability to adversarial attacks (Szegedy et al. [248]), tendency
to memorise noise (Zhang et al. [292]), being over-confident on incorrect
predictions (miscalibration) (Guo et al. [99]), and unsuitability for handling
private data (Gilad-Bachrach et al. [88]). In this thesis, we look at each of
these issues in detail, investigate their causes, and propose computationally
cheap algorithms for mitigating them in practice. To do this, we identify
structures in deep neural networks that can be exploited to mitigate the above
causes of unreliability of deep learning algorithms.
- Abstract(参考訳): ディープラーニングの研究は、コンピュータビジョン、自然言語処理、強化学習を含む幅広いタスクにおいて、驚くほど急速に進歩しているのを最近目撃した。
これらのシステムの異常なパフォーマンスは、よりよい生活に革命をもたらすことができるという印象を与えます。
しかし、最近の研究が指摘しているように、これらのシステムは、敵の攻撃に対する脆弱性(szegedy et al)を含む、現実世界での使用に信頼性のないいくつかの問題に苦しんでいる。
(248]),音を記憶する傾向(zhangら)がみられた。
[292]) 誤った予測(誤訳)を過信している(Guo et al)。
(99])、プライベートデータを扱うのに不適格(gilad-bachrach et al.)。
[88]).
本論では,これら各問題を詳細に検討し,その原因を調査し,実際に緩和するための計算コストの低いアルゴリズムを提案する。
これを実現するために、深層ニューラルネットワークの構造を同定し、上記の深層学習アルゴリズムの信頼性の低い原因を緩和する。
関連論文リスト
- Computability of Classification and Deep Learning: From Theoretical Limits to Practical Feasibility through Quantization [53.15874572081944]
ディープラーニングフレームワークにおける計算可能性について,2つの観点から検討する。
根底にある問題が十分に解決された場合でも、ディープニューラルネットワークを訓練する際のアルゴリズム上の制限を示す。
最後に、分類と深層ネットワークトレーニングの定量化バージョンにおいて、計算可能性の制限は発生せず、一定の程度まで克服可能であることを示す。
論文 参考訳(メタデータ) (2024-08-12T15:02:26Z) - Towards guarantees for parameter isolation in continual learning [31.785686292677813]
ニューラルネットワークの損失ランドスケープの幾何に着目し,学習と忘れの関連性について検討した。
パラメータ分離に基づく連続学習アルゴリズムのファミリについて統一的な視点を提供する。
論文 参考訳(メタデータ) (2023-10-02T12:50:15Z) - Investigating Human-Identifiable Features Hidden in Adversarial
Perturbations [54.39726653562144]
我々の研究では、最大5つの攻撃アルゴリズムを3つのデータセットにわたって探索する。
対人摂動における人間の識別可能な特徴を同定する。
画素レベルのアノテーションを用いて、そのような特徴を抽出し、ターゲットモデルに妥協する能力を実証する。
論文 参考訳(メタデータ) (2023-09-28T22:31:29Z) - Mitigating Adversarial Attacks in Deepfake Detection: An Exploration of
Perturbation and AI Techniques [1.0718756132502771]
敵の例は微妙な摂動で きれいな画像やビデオに 巧みに注入される
ディープフェイクは世論を操り、世論の評判を損なう強力なツールとして登場した。
この記事では、多面的な敵の例の世界を掘り下げ、ディープラーニングアルゴリズムを騙す能力の背後にある原則を解明する。
論文 参考訳(メタデータ) (2023-02-22T23:48:19Z) - Generalized Uncertainty of Deep Neural Networks: Taxonomy and
Applications [1.9671123873378717]
ディープニューラルネットワークの不確実性は、解釈可能性と透明性の感覚において重要であるだけでなく、パフォーマンスをさらに向上するためにも重要であることを示す。
我々は、ディープニューラルネットワークの不確実性の定義を、入力またはインプットラベルペアに関連する任意の数またはベクトルに一般化し、そのような不確かさをディープモデルから「マイニングに関する既存の方法」をカタログ化する。
論文 参考訳(メタデータ) (2023-02-02T22:02:33Z) - Towards Robust Deep Learning using Entropic Losses [0.0]
この論文は、新規な損失関数と検出スコアを提案することにより、未解決のアウト・オブ・ディストリビューション検出タスクに取り組む。
また、この頑健性に関連するタスクにも対処し、ディープニューラルネットワークによって提示される確率がどれほど現実的であるかを評価する。
論文 参考訳(メタデータ) (2022-08-06T18:52:39Z) - Where Did You Learn That From? Surprising Effectiveness of Membership
Inference Attacks Against Temporally Correlated Data in Deep Reinforcement
Learning [114.9857000195174]
深い強化学習を産業的に広く採用する上での大きな課題は、プライバシー侵害の潜在的な脆弱性である。
本稿では, 深層強化学習アルゴリズムの脆弱性を検証し, メンバーシップ推論攻撃に適応する対戦型攻撃フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-08T23:44:57Z) - A neural anisotropic view of underspecification in deep learning [60.119023683371736]
ニューラルネットが問題の未特定化を扱う方法が,データ表現に大きく依存していることを示す。
深層学習におけるアーキテクチャ的インダクティブバイアスの理解は,これらのシステムの公平性,堅牢性,一般化に対処する上で基本的であることを強調した。
論文 参考訳(メタデータ) (2021-04-29T14:31:09Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z) - A Brief Look at Generalization in Visual Meta-Reinforcement Learning [56.50123642237106]
メタ強化学習アルゴリズムの一般化性能を評価する。
これらのアルゴリズムは、困難なタスクで評価された場合、強いオーバーフィッティングを示すことができる。
論文 参考訳(メタデータ) (2020-06-12T15:17:17Z) - Universal Adversarial Perturbations: A Survey [0.0]
深いニューラルネットワークは敵の摂動に影響を受けやすい。
これらの摂動は、入力画像に知覚的な変更を加えることなく、ネットワークの予測を変更させる可能性がある。
我々は、普遍的な摂動を生成するための様々なデータ駆動型およびデータ非依存の手法について、詳細な議論を行う。
論文 参考訳(メタデータ) (2020-05-16T20:18:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。