論文の概要: Panda or not Panda? Understanding Adversarial Attacks with Interactive Visualization
- arxiv url: http://arxiv.org/abs/2311.13656v2
- Date: Sat, 05 Oct 2024 05:48:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-08 13:10:29.705519
- Title: Panda or not Panda? Understanding Adversarial Attacks with Interactive Visualization
- Title(参考訳): パンダかパンダか? 対話的可視化による敵攻撃の理解
- Authors: Yuzhe You, Jarvis Tse, Jian Zhao,
- Abstract要約: 逆機械学習(Adversarial Machine Learning, AML)は、機械学習アルゴリズムを騙して誤った結果を生成する攻撃を研究する。
本稿では,様々な画像分類器に対する回避攻撃の特性と影響を示す多段階対話型可視化システムAdvExを紹介する。
以上の結果から,AdvExはAMLのメカニズムを理解するための可視化ツールとして非常に有効であるだけでなく,魅力的な,楽しい学習体験を提供することが明らかとなった。
- 参考スコア(独自算出の注目度): 3.9985478938340107
- License:
- Abstract: Adversarial machine learning (AML) studies attacks that can fool machine learning algorithms into generating incorrect outcomes as well as the defenses against worst-case attacks to strengthen model robustness. Specifically for image classification, it is challenging to understand adversarial attacks due to their use of subtle perturbations that are not human-interpretable, as well as the variability of attack impacts influenced by diverse methodologies, instance differences, and model architectures. Through a design study with AML learners and teachers, we introduce AdvEx, a multi-level interactive visualization system that comprehensively presents the properties and impacts of evasion attacks on different image classifiers for novice AML learners. We quantitatively and qualitatively assessed AdvEx in a two-part evaluation including user studies and expert interviews. Our results show that AdvEx is not only highly effective as a visualization tool for understanding AML mechanisms, but also provides an engaging and enjoyable learning experience, thus demonstrating its overall benefits for AML learners.
- Abstract(参考訳): Adversarial Machine Learning (AML)は、機械学習アルゴリズムを騙して誤った結果を生成することができる攻撃と、モデル堅牢性を強化する最悪の攻撃に対する防御を研究する。
特に画像分類においては,人間の解釈不可能な微妙な摂動の使用や,多様な手法,インスタンスの違い,モデルアーキテクチャの影響による攻撃影響の変動などにより,敵の攻撃を理解することは困難である。
本稿では,AML学習者と教師によるデザインスタディを通じて,初級AML学習者を対象とした画像分類器に対する回避攻撃の特性と影響を包括的に提示する多段階対話型可視化システムAdvExを紹介する。
ユーザスタディと専門家インタビューを含む2部評価において,AdvExを定量的かつ質的に評価した。
以上の結果から,AdvExは,AMLのメカニズムを理解するための可視化ツールとしてだけでなく,魅力的な学習体験も提供し,AML学習者の全体的なメリットを実証している。
関連論文リスト
- Adversarial Attacks on Machine Learning-Aided Visualizations [12.37960099024803]
ML4VISのアプローチは、ML固有の敵攻撃の影響を受けやすい。
これらの攻撃は視覚化世代を操作でき、アナリストが騙され、判断が損なわれる。
本稿では,ML と ML の両視点の全体像レンズを用いて,敵攻撃による ML 支援視覚化の潜在的な脆弱性について検討する。
論文 参考訳(メタデータ) (2024-09-04T07:23:12Z) - A Systematic Evaluation of Adversarial Attacks against Speech Emotion Recognition Models [6.854732863866882]
音声感情認識(SER)は近年,様々な分野に応用される可能性から,常に注目を集めている。
近年の研究では、ディープラーニングモデルは敵の攻撃に弱いことが示されている。
論文 参考訳(メタデータ) (2024-04-29T09:00:32Z) - The Anatomy of Adversarial Attacks: Concept-based XAI Dissection [1.2916188356754918]
XAI技術を用いた畳み込みニューラルネットワーク(CNN)で学習した概念に対するAAの影響について検討する。
AAsは機能空間における概念構成の大幅な変更を誘発し、新しい概念を導入したり、既存の概念を変更したりする。
我々の発見は、より堅牢で解釈可能なディープラーニングモデルを開発するための道を開いた。
論文 参考訳(メタデータ) (2024-03-25T13:57:45Z) - SA-Attack: Improving Adversarial Transferability of Vision-Language
Pre-training Models via Self-Augmentation [56.622250514119294]
ホワイトボックスの敵攻撃とは対照的に、転送攻撃は現実世界のシナリオをより反映している。
本稿では,SA-Attackと呼ばれる自己拡張型転送攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-12-08T09:08:50Z) - Machine Vision Therapy: Multimodal Large Language Models Can Enhance Visual Robustness via Denoising In-Context Learning [67.0609518552321]
本稿では,視覚モデルからノイズ予測を補正するマシンビジョンセラピーを提案する。
復調ラベルを微調整することにより、教師なしの方法で学習モデルの性能を高めることができる。
論文 参考訳(メタデータ) (2023-12-05T07:29:14Z) - Re-mine, Learn and Reason: Exploring the Cross-modal Semantic
Correlations for Language-guided HOI detection [57.13665112065285]
ヒューマンオブジェクトインタラクション(HOI)検出は、コンピュータビジョンの課題である。
本稿では,構造化テキスト知識を組み込んだHOI検出フレームワークを提案する。
論文 参考訳(メタデータ) (2023-07-25T14:20:52Z) - Attacks in Adversarial Machine Learning: A Systematic Survey from the
Life-cycle Perspective [69.25513235556635]
敵対的機械学習(英: Adversarial Machine Learning、AML)は、機械学習の逆行現象を研究する。
機械学習システムの異なる段階で発生するこの敵対現象を探求するために、いくつかのパラダイムが最近開発された。
既存の攻撃パラダイムをカバーするための統一的な数学的枠組みを提案する。
論文 参考訳(メタデータ) (2023-02-19T02:12:21Z) - Interpretations Cannot Be Trusted: Stealthy and Effective Adversarial
Perturbations against Interpretable Deep Learning [16.13790238416691]
この研究はAdvEdgeとAdvEdge$+$という2つの攻撃を導入し、ターゲットのディープラーニングモデルと組み合わせた解釈モデルの両方を欺いた。
我々の分析は、ディープラーニングモデルとそのインタプリタを騙すという観点から、我々の攻撃の有効性を示している。
論文 参考訳(メタデータ) (2022-11-29T04:45:10Z) - Characterizing the adversarial vulnerability of speech self-supervised
learning [95.03389072594243]
我々は,ゼロ知識とリミテッド知識の両方の敵からの攻撃の下で,そのようなパラダイムの敵対的脆弱性を調査するための最初の試みを行う。
実験結果から, SUPERB が提案するパラダイムは, 限られた知識を持つ敵に対して脆弱であることが示唆された。
論文 参考訳(メタデータ) (2021-11-08T08:44:04Z) - ML-Doctor: Holistic Risk Assessment of Inference Attacks Against Machine
Learning Models [64.03398193325572]
機械学習(ML)モデルに対する推論攻撃により、敵はトレーニングデータやモデルパラメータなどを学ぶことができる。
私たちは、メンバシップ推論、モデル反転、属性推論、モデル盗難の4つの攻撃に集中しています。
私たちの分析では、MLモデルオーナがモデルをデプロイするリスクを評価することができる、モジュール化された再使用可能なソフトウェアであるML-Doctorに依存しています。
論文 参考訳(メタデータ) (2021-02-04T11:35:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。