論文の概要: Proactive Schemes: A Survey of Adversarial Attacks for Social Good
- arxiv url: http://arxiv.org/abs/2409.16491v1
- Date: Tue, 24 Sep 2024 22:31:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-27 08:11:05.679253
- Title: Proactive Schemes: A Survey of Adversarial Attacks for Social Good
- Title(参考訳): プロアクティブ・スキーム : 社会的善に対する敵対的攻撃に関する調査
- Authors: Vishal Asnani, Xi Yin, Xiaoming Liu,
- Abstract要約: コンピュータビジョンにおける敵攻撃は、入力データに微妙な摂動を導入することによって、機械学習モデルの脆弱性を悪用する。
テンプレートと呼ばれる追加信号を用いて入力データを暗号化するプロアクティブなスキーム手法の台頭について検討し,ディープラーニングモデルの性能向上を図る。
この調査は、これらのプロアクティブなスキーム、暗号化と学習プロセスの方法論と、現代のコンピュータビジョンや自然言語処理アプリケーションへの応用を掘り下げている。
- 参考スコア(独自算出の注目度): 13.213478193134701
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Adversarial attacks in computer vision exploit the vulnerabilities of machine learning models by introducing subtle perturbations to input data, often leading to incorrect predictions or classifications. These attacks have evolved in sophistication with the advent of deep learning, presenting significant challenges in critical applications, which can be harmful for society. However, there is also a rich line of research from a transformative perspective that leverages adversarial techniques for social good. Specifically, we examine the rise of proactive schemes-methods that encrypt input data using additional signals termed templates, to enhance the performance of deep learning models. By embedding these imperceptible templates into digital media, proactive schemes are applied across various applications, from simple image enhancements to complicated deep learning frameworks to aid performance, as compared to the passive schemes, which don't change the input data distribution for their framework. The survey delves into the methodologies behind these proactive schemes, the encryption and learning processes, and their application to modern computer vision and natural language processing applications. Additionally, it discusses the challenges, potential vulnerabilities, and future directions for proactive schemes, ultimately highlighting their potential to foster the responsible and secure advancement of deep learning technologies.
- Abstract(参考訳): コンピュータビジョンにおける敵対的攻撃は、入力データに微妙な摂動を導入して機械学習モデルの脆弱性を悪用し、しばしば誤った予測や分類につながる。
これらの攻撃は、深層学習の出現とともに洗練され、社会にとって有害な重要な応用において重大な課題が提示された。
しかし、社会的な利益のために敵対的手法を活用する変革的観点からの豊富な研究のラインもある。
具体的には、テンプレートと呼ばれる追加信号を用いて入力データを暗号化するプロアクティブなスキーム手法の台頭について検討し、ディープラーニングモデルの性能を向上させる。
これらの認識不能なテンプレートをデジタルメディアに埋め込むことによって、単純な画像拡張から複雑なディープラーニングフレームワークまで、さまざまなアプリケーションにプロアクティブスキームを適用して、彼らのフレームワークの入力データ分布を変えないパッシブスキームと比較して、パフォーマンスを支援する。
この調査は、これらのプロアクティブなスキーム、暗号化と学習プロセスの方法論と、現代のコンピュータビジョンや自然言語処理アプリケーションへの応用を掘り下げている。
さらに、プロアクティブなスキームの課題、潜在的な脆弱性、将来の方向性について論じ、最終的に、ディープラーニング技術の責任とセキュアな進歩を促進する可能性を強調している。
関連論文リスト
- Adversarial Challenges in Network Intrusion Detection Systems: Research Insights and Future Prospects [0.33554367023486936]
本稿では,機械学習を用いたネットワーク侵入検知システム(NIDS)の総合的なレビューを行う。
NIDSにおける既存の研究を批判的に検討し、重要なトレンド、強み、限界を強調した。
我々は、この分野における新たな課題について議論し、より堅牢でレジリエントなNIDSの開発に向けた洞察を提供する。
論文 参考訳(メタデータ) (2024-09-27T13:27:29Z) - Cyber Knowledge Completion Using Large Language Models [1.4883782513177093]
IoT(Internet of Things)をCPS(Cyber-Physical Systems)に統合することで,サイバー攻撃面が拡大した。
CPSのリスクを評価することは、不完全で時代遅れのサイバーセキュリティ知識のため、ますます困難になっている。
近年のLarge Language Models (LLMs) の進歩は、サイバー攻撃による知識の完成を促進するユニークな機会となる。
論文 参考訳(メタデータ) (2024-09-24T15:20:39Z) - A Review of Image Retrieval Techniques: Data Augmentation and Adversarial Learning Approaches [0.0]
本稿では,検索性能向上におけるデータ強化と対人学習技術の役割について概説する。
データ拡張は、より多様なトレーニングサンプルを生成し、現実世界のバリエーションをシミュレートし、オーバーフィッティングを減らすことで、モデルの一般化能力と堅牢性を高める。
敵の攻撃と防衛は 訓練中に混乱をもたらす 潜在的な攻撃に対する モデルの堅牢性を改善するために
論文 参考訳(メタデータ) (2024-09-02T12:55:17Z) - Unlearning Backdoor Attacks through Gradient-Based Model Pruning [10.801476967873173]
本研究では,その軽減を未学習課題として扱うことによって,バックドア攻撃に対抗する新しい手法を提案する。
このアプローチは単純さと有効性を提供し、データ可用性に制限のあるシナリオに適しています。
論文 参考訳(メタデータ) (2024-05-07T00:36:56Z) - Stepping out of Flatland: Discovering Behavior Patterns as Topological Structures in Cyber Hypergraphs [0.7835894511242797]
本稿では,ハイパーグラフとトポロジ理論に基づく新しいフレームワークを提案する。
大規模なサイバーネットワークデータセットで具体例を示す。
論文 参考訳(メタデータ) (2023-11-08T00:00:33Z) - A Survey on Transferability of Adversarial Examples across Deep Neural Networks [53.04734042366312]
逆の例では、機械学習モデルを操作して誤った予測を行うことができます。
敵の例の転送可能性により、ターゲットモデルの詳細な知識を回避できるブラックボックス攻撃が可能となる。
本研究は, 対角移動可能性の展望を考察した。
論文 参考訳(メタデータ) (2023-10-26T17:45:26Z) - Adversarial Attacks and Defenses in Machine Learning-Powered Networks: A
Contemporary Survey [114.17568992164303]
機械学習とディープニューラルネットワークにおけるアドリアックと防御が注目されている。
本調査は、敵攻撃・防衛技術分野における最近の進歩を包括的に概観する。
検索ベース、意思決定ベース、ドロップベース、物理世界攻撃など、新たな攻撃方法も検討されている。
論文 参考訳(メタデータ) (2023-03-11T04:19:31Z) - Holistic Adversarial Robustness of Deep Learning Models [91.34155889052786]
敵対的堅牢性は、安全性と信頼性を確保するために、機械学習モデルの最悪のケースパフォーマンスを研究する。
本稿では,深層学習モデルの対角的ロバスト性に関する研究課題の概要と研究手法の基礎原則について概説する。
論文 参考訳(メタデータ) (2022-02-15T05:30:27Z) - Insights into Data through Model Behaviour: An Explainability-driven
Strategy for Data Auditing for Responsible Computer Vision Applications [70.92379567261304]
本研究では,データ監査に対する説明可能性駆動型戦略について検討する。
2つの人気のある医療ベンチマークデータセットを監査することで、この戦略を実証する。
私たちは、ディープラーニングモデルに誤った理由を予測させる隠れたデータ品質の問題を発見します。
論文 参考訳(メタデータ) (2021-06-16T23:46:39Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Dos and Don'ts of Machine Learning in Computer Security [74.1816306998445]
大きな可能性にもかかわらず、セキュリティにおける機械学習は、パフォーマンスを損なう微妙な落とし穴を引き起こす傾向がある。
我々は,学習ベースのセキュリティシステムの設計,実装,評価において共通の落とし穴を特定する。
我々は,落とし穴の回避や軽減を支援するために,研究者を支援するための実用的な勧告を提案する。
論文 参考訳(メタデータ) (2020-10-19T13:09:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。