論文の概要: Security and Privacy Challenges in Deep Learning Models
- arxiv url: http://arxiv.org/abs/2311.13744v1
- Date: Thu, 23 Nov 2023 00:26:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-28 00:58:11.810928
- Title: Security and Privacy Challenges in Deep Learning Models
- Title(参考訳): ディープラーニングモデルにおけるセキュリティとプライバシの課題
- Authors: Gopichandh Golla
- Abstract要約: ディープラーニングモデルは、モデルのセキュリティとデータのプライバシを侵害するさまざまな攻撃を受けることができる。
モデル抽出攻撃、モデル反転攻撃、および敵攻撃について論じる。
データ中毒攻撃は、トレーニングセットに有害なデータを追加し、学習プロセスを中断し、ディープラーニングモードの信頼性を低下させる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: These days, deep learning models have achieved great success in multiple
fields, from autonomous driving to medical diagnosis. These models have
expanded the abilities of artificial intelligence by offering great solutions
to complex problems that were very difficult to solve earlier. In spite of
their unseen success in various, it has been identified, through research
conducted, that deep learning models can be subjected to various attacks that
compromise model security and data privacy of the Deep Neural Network models.
Deep learning models can be subjected to various attacks at different stages of
their lifecycle. During the testing phase, attackers can exploit
vulnerabilities through different kinds of attacks such as Model Extraction
Attacks, Model Inversion attacks, and Adversarial attacks. Model Extraction
Attacks are aimed at reverse-engineering a trained deep learning model, with
the primary objective of revealing its architecture and parameters. Model
inversion attacks aim to compromise the privacy of the data used in the Deep
learning model. These attacks are done to compromise the confidentiality of the
model by going through the sensitive training data from the model's
predictions. By analyzing the model's responses, attackers aim to reconstruct
sensitive information. In this way, the model's data privacy is compromised.
Adversarial attacks, mainly employed on computer vision models, are made to
corrupt models into confidently making incorrect predictions through malicious
testing data. These attacks subtly alter the input data, making it look normal
but misleading deep learning models to make incorrect decisions. Such attacks
can happen during both the model's evaluation and training phases. Data
Poisoning Attacks add harmful data to the training set, disrupting the learning
process and reducing the reliability of the deep learning mode.
- Abstract(参考訳): 近年、ディープラーニングモデルは、自律運転から医療診断まで、複数の分野で大きな成功を収めている。
これらのモデルは、これまで解決が困難だった複雑な問題に対する優れた解決策を提供することで、人工知能の能力を拡大した。
さまざまな面で成功しているにも関わらず、ディープラーニングモデルは、ディープニューラルネットワークモデルのモデルセキュリティとデータプライバシを侵害するさまざまな攻撃を受ける可能性がある、という研究を通じて特定されている。
ディープラーニングモデルは、ライフサイクルのさまざまな段階でさまざまな攻撃を受けることができる。
テストフェーズでは、モデル抽出攻撃、モデル反転攻撃、逆攻撃など、さまざまな種類の攻撃を通じて脆弱性を利用することができる。
モデル抽出攻撃は、訓練されたディープラーニングモデルをリバースエンジニアリングすることを目的としており、アーキテクチャとパラメータを明らかにすることが主な目的である。
モデル反転攻撃は、ディープラーニングモデルで使用されるデータのプライバシーを侵害することを目的としている。
これらの攻撃は、モデルの予測からセンシティブなトレーニングデータを調べることによって、モデルの機密性を損なうために行われる。
モデルの応答を分析することで、攻撃者は機密情報を再構築することを目指している。
このようにして、モデルのデータプライバシが侵害される。
主にコンピュータビジョンモデルに使用される敵攻撃は、悪意のあるテストデータを通じて、モデルが確実に不正な予測を行うよう、モデルを破損させる。
これらの攻撃は入力データを微妙に変更し、正常に見えるが、誤った判断をする深層学習モデルを誤解させる。
このような攻撃は、モデルの評価とトレーニングフェーズの両方で起こりうる。
データ中毒攻撃はトレーニングセットに有害なデータを加え、学習プロセスを破壊し、ディープラーニングモードの信頼性を低下させる。
関連論文リスト
- Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Understanding Deep Learning defenses Against Adversarial Examples
Through Visualizations for Dynamic Risk Assessment [0.0]
対人訓練,次元減少,予測類似性を対人攻撃に対する防御として選択した。
各防御において、元のモデルの挙動は、可視化されたグラフによって対象モデルの振る舞いを表現し、防御されたモデルの挙動と比較された。
論文 参考訳(メタデータ) (2024-02-12T09:05:01Z) - SecurityNet: Assessing Machine Learning Vulnerabilities on Public Models [74.58014281829946]
本研究では, モデル盗難攻撃, メンバーシップ推論攻撃, パブリックモデルにおけるバックドア検出など, いくつかの代表的な攻撃・防御の有効性を解析する。
実験により,これらの攻撃・防御性能は,自己学習モデルと比較して,公共モデルによって大きく異なることが示された。
論文 参考訳(メタデータ) (2023-10-19T11:49:22Z) - Boosting Model Inversion Attacks with Adversarial Examples [26.904051413441316]
ブラックボックス設定において、より高い攻撃精度を達成できる学習ベースモデル反転攻撃のための新しい訓練パラダイムを提案する。
まず,攻撃モデルの学習過程を,意味的損失関数を追加して規則化する。
第2に、学習データに逆例を注入し、クラス関連部の多様性を高める。
論文 参考訳(メタデータ) (2023-06-24T13:40:58Z) - Property Inference Attacks on Convolutional Neural Networks: Influence
and Implications of Target Model's Complexity [1.2891210250935143]
プロパティ推論攻撃は、トレーニングデータセットに関する与えられたモデルプロパティをモデルの主な目標とは無関係に推測することを目的としている。
本稿では,ターゲットモデルの複雑性が攻撃の精度に及ぼす影響について検討する。
その結果,ターゲットモデルの複雑さとは無関係に,プライバシ侵害のリスクがあることが判明した。
論文 参考訳(メタデータ) (2021-04-27T09:19:36Z) - Delving into Data: Effectively Substitute Training for Black-box Attack [84.85798059317963]
本稿では,知識盗むプロセスで使用されるデータの分散設計に焦点をあてた,新しい視点代替トレーニングを提案する。
これら2つのモジュールの組み合わせにより、代替モデルとターゲットモデルの一貫性がさらに向上し、敵攻撃の有効性が大幅に向上する。
論文 参考訳(メタデータ) (2021-04-26T07:26:29Z) - Manipulating SGD with Data Ordering Attacks [23.639512087220137]
基礎となるモデルデータセットやアーキテクチャを変更する必要のない,一連のトレーニングタイムアタックを提示する。
特に、アタッカーはトレーニングバッチをリオーダーするだけでモデルの完全性と可用性を損なう可能性がある。
攻撃は、攻撃後数百エポックというモデル性能を低下させるという長期的な影響をもたらす。
論文 参考訳(メタデータ) (2021-04-19T22:17:27Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z) - Learning to Attack: Towards Textual Adversarial Attacking in Real-world
Situations [81.82518920087175]
敵攻撃は、敵の例でディープニューラルネットワークを騙すことを目的としている。
本稿では、攻撃履歴から学習し、より効率的に攻撃を開始することができる強化学習に基づく攻撃モデルを提案する。
論文 参考訳(メタデータ) (2020-09-19T09:12:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。