論文の概要: Deep Learning Model Security: Threats and Defenses
- arxiv url: http://arxiv.org/abs/2412.08969v2
- Date: Mon, 16 Dec 2024 03:34:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 14:02:55.214278
- Title: Deep Learning Model Security: Threats and Defenses
- Title(参考訳): ディープラーニングモデルセキュリティ - 脅威と防御
- Authors: Tianyang Wang, Ziqian Bi, Yichao Zhang, Ming Liu, Weiche Hsieh, Pohsun Feng, Lawrence K. Q. Yan, Yizhu Wen, Benji Peng, Junyu Liu, Keyu Chen, Sen Zhang, Ming Li, Chuanqi Jiang, Xinyuan Song, Junjie Yang, Bowen Jing, Jintao Ren, Junhao Song, Hong-Ming Tseng, Silin Chen, Yunze Wang, Chia Xin Liang, Jiawei Xu, Xuanhe Pan, Jinlang Wang, Qian Niu,
- Abstract要約: ディープラーニングはAIアプリケーションを変えたが、重要なセキュリティ課題に直面している。
この調査は、これらの脆弱性を調べ、それらのメカニズムとモデル完全性と機密性への影響を詳細に示す。
この調査は、自動化された防御、ゼロトラストアーキテクチャ、大規模AIモデルのセキュリティ上の課題を強調し、今後の方向性を結論付けている。
- 参考スコア(独自算出の注目度): 25.074630770554105
- License:
- Abstract: Deep learning has transformed AI applications but faces critical security challenges, including adversarial attacks, data poisoning, model theft, and privacy leakage. This survey examines these vulnerabilities, detailing their mechanisms and impact on model integrity and confidentiality. Practical implementations, including adversarial examples, label flipping, and backdoor attacks, are explored alongside defenses such as adversarial training, differential privacy, and federated learning, highlighting their strengths and limitations. Advanced methods like contrastive and self-supervised learning are presented for enhancing robustness. The survey concludes with future directions, emphasizing automated defenses, zero-trust architectures, and the security challenges of large AI models. A balanced approach to performance and security is essential for developing reliable deep learning systems.
- Abstract(参考訳): ディープラーニングはAIアプリケーションを変えたが、敵攻撃、データ中毒、モデル盗難、プライバシー漏洩など、重要なセキュリティ上の課題に直面している。
この調査は、これらの脆弱性を調べ、それらのメカニズムとモデル完全性と機密性への影響を詳細に示す。
敵の例、ラベルのフリップ、バックドアアタックを含む実践的な実装は、敵のトレーニング、差分プライバシー、フェデレーション学習などの防衛と共に検討され、その強みと限界を強調している。
強靭性を高めるために、コントラスト学習や自己教師学習のような高度な手法が提示される。
調査では、自動防御、ゼロトラストアーキテクチャ、大規模AIモデルのセキュリティ課題など、今後の方向性について結論付けている。
信頼性の高いディープラーニングシステムの開発には,パフォーマンスとセキュリティのバランスのとれたアプローチが不可欠だ。
関連論文リスト
- Towards Robust and Secure Embodied AI: A Survey on Vulnerabilities and Attacks [22.154001025679896]
ロボットや自動運転車を含む身体的AIシステムは、現実のアプリケーションにますます統合されている。
これらの脆弱性は、センサーのスプーフィング、敵攻撃、タスクおよび動作計画における失敗を通じて現れる。
論文 参考訳(メタデータ) (2025-02-18T03:38:07Z) - Safety at Scale: A Comprehensive Survey of Large Model Safety [299.801463557549]
我々は、敵攻撃、データ中毒、バックドア攻撃、ジェイルブレイクとプロンプトインジェクション攻撃、エネルギー遅延攻撃、データとモデル抽出攻撃、出現するエージェント固有の脅威を含む、大規模なモデルに対する安全脅威の包括的分類を提示する。
我々は、大規模なモデル安全性におけるオープンな課題を特定し、議論し、包括的な安全性評価、スケーラブルで効果的な防御機構、持続可能なデータプラクティスの必要性を強調します。
論文 参考訳(メタデータ) (2025-02-02T05:14:22Z) - A Review of the Duality of Adversarial Learning in Network Intrusion: Attacks and Countermeasures [0.0]
敵対的攻撃、特にディープラーニングモデルの脆弱性を狙った攻撃は、サイバーセキュリティに対するニュアンスで重大な脅威となる。
本研究は,データポジショニング,テストタイムエベイション,リバースエンジニアリングなど,敵対的な学習の脅威について論じる。
我々の研究は、敵の攻撃によって引き起こされるネットワークセキュリティとプライバシの潜在的な侵害に対処するための防御メカニズムを強化するための基盤となる。
論文 参考訳(メタデータ) (2024-12-18T14:21:46Z) - New Emerged Security and Privacy of Pre-trained Model: a Survey and Outlook [54.24701201956833]
セキュリティとプライバシーの問題は、事前訓練されたモデルに対するユーザーの信頼を損なう。
現在の文献は、事前訓練されたモデルに対する攻撃と防御の明確な分類を欠いている。
この分類法は、攻撃と防御をNo-Change、Input-Change、Model-Changeアプローチに分類する。
論文 参考訳(メタデータ) (2024-11-12T10:15:33Z) - FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - Survey of Security and Data Attacks on Machine Unlearning In Financial and E-Commerce [0.0]
本稿では、金融・電子商取引アプリケーションに焦点をあて、機械学習におけるセキュリティとデータアタックの状況について調査する。
これらのリスクを軽減するため、差分プライバシー、堅牢な暗号保証、ZKP(Zero-Knowledge Proofs)など、さまざまな防衛戦略が検討されている。
この調査は、セキュアマシンアンラーニングにおける継続的な研究とイノベーションの必要性と、進化する攻撃ベクトルに対する強力な防御を開発することの重要性を強調している。
論文 参考訳(メタデータ) (2024-09-29T00:30:36Z) - Survey on Federated Learning Threats: concepts, taxonomy on attacks and
defences, experimental study and challenges [10.177219272933781]
フェデレーション・ラーニング(Federated Learning)は、人工知能におけるプライバシ保護要求の解決策として現れる機械学習パラダイムである。
機械学習として、フェデレートされた学習は、学習モデルの完全性とデータのプライバシに対する敵対的な攻撃によって、ローカルおよびグローバルな学習に取り組むための分散アプローチによって脅かされる。
論文 参考訳(メタデータ) (2022-01-20T12:23:03Z) - Dataset Security for Machine Learning: Data Poisoning, Backdoor Attacks,
and Defenses [150.64470864162556]
この作業は体系的に分類され、幅広いデータセット脆弱性とエクスプロイトを議論する。
様々な毒とバックドアの脅威モデルとそれらの関係を記述することに加えて,それらの統一分類法を展開する。
論文 参考訳(メタデータ) (2020-12-18T22:38:47Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。