論文の概要: Detecting Adversarial Examples in Batches -- a geometrical approach
- arxiv url: http://arxiv.org/abs/2206.08738v1
- Date: Fri, 17 Jun 2022 12:52:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-20 21:18:25.522308
- Title: Detecting Adversarial Examples in Batches -- a geometrical approach
- Title(参考訳): バッチにおける逆例の検出-幾何学的アプローチ
- Authors: Danush Kumar Venkatesh and Peter Steinbach
- Abstract要約: 本稿では,2つの幾何学的測度,密度とカバレッジを導入し,不明瞭なデータのバッチにおける対数サンプルの検出におけるそれらの使用性を評価する。
MNISTとMedMNISTの2つの実世界のバイオメディカルデータセットを用いて、これらの指標を実証的に研究し、2つの異なる敵攻撃を受けた。
本実験は,両指標が敵対例を検出するための有望な結果を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Many deep learning methods have successfully solved complex tasks in computer
vision and speech recognition applications. Nonetheless, the robustness of
these models has been found to be vulnerable to perturbed inputs or adversarial
examples, which are imperceptible to the human eye, but lead the model to
erroneous output decisions. In this study, we adapt and introduce two geometric
metrics, density and coverage, and evaluate their use in detecting adversarial
samples in batches of unseen data. We empirically study these metrics using
MNIST and two real-world biomedical datasets from MedMNIST, subjected to two
different adversarial attacks. Our experiments show promising results for both
metrics to detect adversarial examples. We believe that his work can lay the
ground for further study on these metrics' use in deployed machine learning
systems to monitor for possible attacks by adversarial examples or related
pathologies such as dataset shift.
- Abstract(参考訳): 多くのディープラーニング手法がコンピュータビジョンや音声認識アプリケーションにおいて複雑なタスクを解くことに成功した。
それにもかかわらず、これらのモデルの堅牢性は、人間の目には知覚できないが誤った出力決定へと導かれる摂動入力や逆さまの例に対して脆弱であることが判明している。
本研究では,2つの幾何学的指標(密度とカバレッジ)を適応・導入し,非知覚データのバッチにおける逆サンプル検出におけるそれらの利用を評価する。
MNISTとMedMNISTの2つの実世界のバイオメディカルデータセットを用いて、これらの指標を実証研究し、2つの異なる敵攻撃を受けた。
本実験は,両指標が敵対例を検出するための有望な結果を示す。
我々は、彼の研究が、デプロイされた機械学習システムにおけるこれらのメトリクスの使用に関するさらなる研究の基盤となり、敵の例やデータセットシフトのような関連する病理による攻撃の可能性を監視できると考えている。
関連論文リスト
- A Comprehensive Library for Benchmarking Multi-class Visual Anomaly Detection [52.228708947607636]
本稿では,新しい手法のモジュラーフレームワークであるADerを包括的視覚異常検出ベンチマークとして紹介する。
このベンチマークには、産業ドメインと医療ドメインからの複数のデータセットが含まれており、15の最先端メソッドと9つの包括的なメトリクスを実装している。
我々は,異なる手法の長所と短所を客観的に明らかにし,多クラス視覚異常検出の課題と今後の方向性について考察する。
論文 参考訳(メタデータ) (2024-06-05T13:40:07Z) - Adversarial Attacks and Dimensionality in Text Classifiers [3.4179091429029382]
機械学習アルゴリズムに対する敵対的な攻撃は、多くの現実世界のユースケースにおいて、AIの採用を妨げている。
本研究では,自然言語処理分野,特にテキスト分類タスクにおける逆例について検討する。
論文 参考訳(メタデータ) (2024-04-03T11:49:43Z) - On the Universal Adversarial Perturbations for Efficient Data-free
Adversarial Detection [55.73320979733527]
本稿では,UAPに対して正常サンプルと逆サンプルの異なる応答を誘導する,データに依存しない逆検出フレームワークを提案する。
実験結果から,本手法は様々なテキスト分類タスクにおいて,競合検出性能を実現することが示された。
論文 参考訳(メタデータ) (2023-06-27T02:54:07Z) - Exploring Model Dynamics for Accumulative Poisoning Discovery [62.08553134316483]
そこで我々は,モデルレベルの情報を通して,防衛を探索するための新しい情報尺度,すなわち,記憶の離散性(Memorization Discrepancy)を提案する。
暗黙的にデータ操作の変更をモデル出力に転送することで、メモリ識別は許容できない毒のサンプルを発見することができる。
我々は、その性質を徹底的に探求し、累積中毒に対する防御のために、離散型サンプル補正(DSC)を提案する。
論文 参考訳(メタデータ) (2023-06-06T14:45:24Z) - EMShepherd: Detecting Adversarial Samples via Side-channel Leakage [6.868995628617191]
敵対的攻撃は、ディープラーニングを駆使したクリティカルな応用にとって悲惨な結果をもたらす。
モデル実行の電磁的トレースを捕捉し、トレース上で処理を行い、敵検出に利用するためのフレームワークEMShepherdを提案する。
提案手法は,一般的に使用されているFPGA深層学習アクセラレータ上で,異なる敵攻撃を効果的に検出できることを実証する。
論文 参考訳(メタデータ) (2023-03-27T19:38:55Z) - Towards Generating Adversarial Examples on Mixed-type Data [32.41305735919529]
そこで本研究では,M-Attackを用いた攻撃アルゴリズムを提案する。
M-Attackをベースとした攻撃者は、与えられたデータサンプルの数値的特徴と分類的特徴の両方をわずかに摂動させることで、ターゲットの分類モデルの予測を誤解させようとする。
我々の生成した敵の例は潜在的な検出モデルを避けることができるため、攻撃は本当に惨めである。
論文 参考訳(メタデータ) (2022-10-17T20:17:21Z) - Measuring the Contribution of Multiple Model Representations in
Detecting Adversarial Instances [0.0]
本稿では,複数のモデルから表現を取り入れた2つの手法について述べる。
多くのシナリオについて検討した結果,表現の抽出に使用する基礎モデルの数によって,性能が向上することが明らかとなった。
論文 参考訳(メタデータ) (2021-11-13T04:24:57Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - Adversarial Examples for Unsupervised Machine Learning Models [71.81480647638529]
回避予測を引き起こすアドリラルな例は、機械学習モデルの堅牢性を評価し改善するために広く利用されている。
教師なしモデルに対する逆例生成の枠組みを提案し,データ拡張への新たな応用を実証する。
論文 参考訳(メタデータ) (2021-03-02T17:47:58Z) - Closeness and Uncertainty Aware Adversarial Examples Detection in
Adversarial Machine Learning [0.7734726150561088]
敵のサンプルを検出するための2つの異なるメトリクス群の使用法を探索し、評価します。
敵検出のための新機能を導入し、これらの指標のパフォーマンスが使用される攻撃の強さに大きく依存していることを示します。
論文 参考訳(メタデータ) (2020-12-11T14:44:59Z) - On the Transferability of Adversarial Attacksagainst Neural Text
Classifier [121.6758865857686]
テキスト分類モデルの逆例の転送可能性について検討する。
本稿では,ほとんどすべての既存モデルを騙すために,敵の例を誘導できるモデル群を見つける遺伝的アルゴリズムを提案する。
これらの逆例からモデル診断に使用できる単語置換規則を導出する。
論文 参考訳(メタデータ) (2020-11-17T10:45:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。