論文の概要: Dirty and Clean-Label attack detection using GAN discriminators
- arxiv url: http://arxiv.org/abs/2506.01224v1
- Date: Mon, 02 Jun 2025 00:32:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:33.997337
- Title: Dirty and Clean-Label attack detection using GAN discriminators
- Title(参考訳): GAN識別器を用いたDirty and Clean-Labelアタック検出
- Authors: John Smutny,
- Abstract要約: 本研究は、GAN識別器を用いて、異なるレベルの修正画像に対して単一のクラスを保護する。
その結果, 単一クラスでのトレーニング後, GAN識別器の信頼度スコアは, ラベルの誤りを識別するための閾値を与える可能性が示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Gathering enough images to train a deep computer vision model is a constant challenge. Unfortunately, collecting images from unknown sources can leave your model s behavior at risk of being manipulated by a dirty-label or clean-label attack unless the images are properly inspected. Manually inspecting each image-label pair is impractical and common poison-detection methods that involve re-training your model can be time consuming. This research uses GAN discriminators to protect a single class against mislabeled and different levels of modified images. The effect of said perturbation on a basic convolutional neural network classifier is also included for reference. The results suggest that after training on a single class, GAN discriminator s confidence scores can provide a threshold to identify mislabeled images and identify 100% of the tested poison starting at a perturbation epsilon magnitude of 0.20, after decision threshold calibration using in-class samples. Developers can use this report as a basis to train their own discriminators to protect high valued classes in their CV models.
- Abstract(参考訳): 深層コンピュータビジョンモデルを訓練するのに十分な画像を集めることは、常に困難である。
残念なことに、未知のソースから画像を集めることは、画像が適切に検査されない限り、汚れたラベルやクリーンなラベル攻撃によって、モデルSの動作が操作されるリスクを負う可能性がある。
イメージラベルのペアを手動で検査することは現実的ではなく、モデルの再トレーニングを含む一般的な毒物検出方法は、時間がかかります。
本研究は、GAN識別器を用いて、異なるレベルの修正画像に対して単一のクラスを保護する。
基本畳み込みニューラルネットワーク分類器に対する当該摂動の影響も参照に含める。
その結果、単一クラスでのトレーニング後、GAN判別器の信頼性スコアは、クラス内サンプルを用いた判定しきい値校正後、誤ラベル画像を特定し、摂動型エプシロン等級0.20から開始する検査毒の100%を識別する閾値を与えることができることが示唆された。
開発者はこのレポートをベースとして、CVモデルで高い価値を持つクラスを保護するために、独自の識別器をトレーニングすることができる。
関連論文リスト
- Neural Fingerprints for Adversarial Attack Detection [2.7309692684728613]
ディープラーニングモデルのよく知られた脆弱性は、敵の例に対する感受性である。
この問題に対処するために多くのアルゴリズムが提案され、一般に2つのカテゴリの1つに分類される。
我々は、攻撃者がネットワークと検出器の構成と重みを知っているホワイトボックス環境では、検出器を克服できると主張している。
この問題は、非常に優れたモデルでさえ安全性を確保するのに不十分なセキュリティアプリケーションで一般的である。
論文 参考訳(メタデータ) (2024-11-07T08:43:42Z) - Unlearnable Examples Detection via Iterative Filtering [84.59070204221366]
ディープニューラルネットワークは、データ中毒攻撃に弱いことが証明されている。
混合データセットから有毒なサンプルを検出することは極めて有益であり、困難である。
UE識別のための反復フィルタリング手法を提案する。
論文 参考訳(メタデータ) (2024-08-15T13:26:13Z) - Unsupervised Contrastive Analysis for Salient Pattern Detection using Conditional Diffusion Models [13.970483987621135]
コントラスト分析(CA)は、背景(BG)データセットとターゲット(TG)データセット(不健康な被験者)を区別できる画像内のパターンを識別することを目的としている。
この話題に関する最近の研究は、BGサンプルからTGサンプルを分離するパターンを教師付きで学習するために、変分オートエンコーダ(VAE)や対照的な学習戦略に依存している。
自己教師付きコントラストエンコーダを用いて、入力画像から共通パターンのみを符号化する潜時表現を学習し、トレーニング中にBGデータセットからのみサンプルを用いて学習し、データ拡張技術を用いて対象パターンの分布を近似する。
論文 参考訳(メタデータ) (2024-06-02T15:19:07Z) - Activation Gradient based Poisoned Sample Detection Against Backdoor Attacks [35.42528584450334]
我々は, アクティベーション・グラディエント・ベース・ポゾンド・サンプル検出 (AGPD) と呼ばれる, 革新的な有毒試料検出手法を開発した。
まず、信頼できないデータセットで訓練されたモデルから、すべてのクラスのGCDを計算する。
そして,対象クラスとクリーンクラス間のGCD分散の違いに基づいて,対象クラス(es)を同定する。
最後に, 汚染された試料とクリーンな試料との明確な分離に基づいて, 同定された標的クラス内の有毒試料をろ過する。
論文 参考訳(メタデータ) (2023-12-11T09:17:33Z) - DIAGNOSIS: Detecting Unauthorized Data Usages in Text-to-image Diffusion Models [79.71665540122498]
保護されたデータセットにインジェクトされたコンテンツを配置することで、不正なデータ利用を検出する手法を提案する。
具体的には、ステルス画像ワープ機能を用いて、これらの画像にユニークな内容を追加することにより、保護された画像を修正する。
このモデルが注入されたコンテンツを記憶したかどうかを解析することにより、不正に不正に使用したモデルを検出することができる。
論文 参考訳(メタデータ) (2023-07-06T16:27:39Z) - Mole Recruitment: Poisoning of Image Classifiers via Selective Batch
Sampling [41.29604559362772]
画像やラベルを操作することなく、機械学習モデルに干渉するデータ中毒攻撃を提案する。
これは、トレーニングデータ自体に見出される最も不明瞭な自然サンプルを単純に活用することで達成される。
私たちは、モールを、他のクラスのサンプルと最もよく似ているクラスのトレーニングサンプルとして定義します。
論文 参考訳(メタデータ) (2023-03-30T00:59:37Z) - Training set cleansing of backdoor poisoning by self-supervised
representation learning [0.0]
バックドアまたはトロイの木馬攻撃は、ディープニューラルネットワーク(DNN)に対するデータ中毒攻撃の重要なタイプである
教師付きトレーニングは, バックドアパターンと関連するターゲットクラスとの間に, 通常の特徴と真の起源のクラスとの間により強い関連性を持つことが示唆された。
そこで本研究では,教師なし表現学習を用いて,バックドアポゾンによるトレーニングサンプルの強調を回避し,同じクラスのサンプルに類似した特徴埋め込みを学習することを提案する。
論文 参考訳(メタデータ) (2022-10-19T03:29:58Z) - Seamless Iterative Semi-Supervised Correction of Imperfect Labels in
Microscopy Images [57.42492501915773]
生体内試験は、医療機器の毒性に対する動物実験の代替手段である。
人間の疲労は、深層学習を魅力的なものにするために、エラー作成に重要な役割を果たします。
我々は、不完全ラベルのシームレス反復半監督補正(SISSI)を提案する。
本手法は,物体検出に適応的な早期学習補正技術を提供する。
論文 参考訳(メタデータ) (2022-08-05T18:52:20Z) - Understanding Classifier Mistakes with Generative Models [88.20470690631372]
ディープニューラルネットワークは教師付き学習タスクに有効であるが、脆弱であることが示されている。
本稿では、生成モデルを利用して、分類器が一般化に失敗するインスタンスを特定し、特徴付ける。
我々のアプローチは、トレーニングセットのクラスラベルに依存しないため、半教師付きでトレーニングされたモデルに適用できる。
論文 参考訳(メタデータ) (2020-10-05T22:13:21Z) - Salvage Reusable Samples from Noisy Data for Robust Learning [70.48919625304]
本稿では,Web画像を用いた深部FGモデルのトレーニングにおいて,ラベルノイズに対処するための再利用可能なサンプル選択と修正手法を提案する。
私たちのキーとなるアイデアは、再利用可能なサンプルの追加と修正を行い、それらをクリーンな例とともに活用してネットワークを更新することです。
論文 参考訳(メタデータ) (2020-08-06T02:07:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。