論文の概要: Phantom: Untargeted Poisoning Attacks on Semi-Supervised Learning (Full Version)
- arxiv url: http://arxiv.org/abs/2409.01470v1
- Date: Mon, 2 Sep 2024 21:29:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-06 03:48:38.494612
- Title: Phantom: Untargeted Poisoning Attacks on Semi-Supervised Learning (Full Version)
- Title(参考訳): Phantom: セミスーパービジョンの学習に対する未ターゲットの毒殺攻撃(フルバージョン)
- Authors: Jonathan Knauer, Phillip Rieger, Hossein Fereidooni, Ahmad-Reza Sadeghi,
- Abstract要約: セミスーパーバイザードラーニング(SSL)における最初の標的外毒攻撃であるPhantomを紹介する。
当社のアプローチでは、被害者をコントロールせずに、ソーシャルネットワークに画像を投稿するなど、操作されたサンプルを少数追加するだけでよい。
以上の結果から,ユーザが生成したコンテンツプラットフォームを害する危険性が指摘され,特定のタスクにおいてSSLに適さないことが示唆された。
- 参考スコア(独自算出の注目度): 19.99079192245235
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Deep Neural Networks (DNNs) can handle increasingly complex tasks, albeit they require rapidly expanding training datasets. Collecting data from platforms with user-generated content, such as social networks, has significantly eased the acquisition of large datasets for training DNNs. Despite these advancements, the manual labeling process remains a substantial challenge in terms of both time and cost. In response, Semi-Supervised Learning (SSL) approaches have emerged, where only a small fraction of the dataset needs to be labeled, leaving the majority unlabeled. However, leveraging data from untrusted sources like social networks also creates new security risks, as potential attackers can easily inject manipulated samples. Previous research on the security of SSL primarily focused on injecting backdoors into trained models, while less attention was given to the more challenging untargeted poisoning attacks. In this paper, we introduce Phantom, the first untargeted poisoning attack in SSL that disrupts the training process by injecting a small number of manipulated images into the unlabeled dataset. Unlike existing attacks, our approach only requires adding few manipulated samples, such as posting images on social networks, without the need to control the victim. Phantom causes SSL algorithms to overlook the actual images' pixels and to rely only on maliciously crafted patterns that \ourname superimposed on the real images. We show Phantom's effectiveness for 6 different datasets and 3 real-world social-media platforms (Facebook, Instagram, Pinterest). Already small fractions of manipulated samples (e.g., 5\%) reduce the accuracy of the resulting model by 10\%, with higher percentages leading to a performance comparable to a naive classifier. Our findings demonstrate the threat of poisoning user-generated content platforms, rendering them unsuitable for SSL in specific tasks.
- Abstract(参考訳): Deep Neural Networks(DNN)は、ますます複雑なタスクを処理することができる。
ソーシャルネットワークなどのユーザ生成コンテンツを持つプラットフォームからデータを収集することで、DNNをトレーニングするための大規模なデータセットの取得が大幅に簡単になった。
これらの進歩にもかかわらず、手作業によるラベリングプロセスは、時間とコストの両面で大きな課題である。
これに対して、Semi-Supervised Learning (SSL)アプローチが登場し、データセットのごく一部をラベル付けする必要があり、大多数はラベル付けされていない。
しかし、ソーシャルネットワークのような信頼できない情報源からのデータを活用すれば、攻撃者が操作されたサンプルを簡単に注入できるため、新たなセキュリティリスクも生じる。
SSLのセキュリティに関する以前の研究は、主に訓練されたモデルにバックドアを注入することに焦点を当てていたが、より困難な未標的の毒殺攻撃には注意が払われなかった。
本稿では、SSLにおける最初の未標的の毒殺攻撃であるPhantomを紹介し、少数の操作済み画像をラベルなしデータセットに注入することにより、トレーニングプロセスを妨害する。
既存の攻撃と異なり、我々のアプローチでは、被害者を制御せずに、ソーシャルネットワークに画像を投稿するなど、操作されたサンプルをほとんど追加するしかありません。
PhantomはSSLアルゴリズムに実際の画像のピクセルを見落としさせ、実際の画像に重ねられた名前の悪質なパターンにのみ依存させる。
6つの異なるデータセットと3つの現実世界のソーシャルメディアプラットフォーム(Facebook、Instagram、Pinterest)に対するPhantomの有効性を示します。
既に操作されたサンプルのごく一部(例: 5 %)は、結果モデルの精度を10 %削減し、高い割合は、単純分類器に匹敵する性能をもたらす。
以上の結果から,ユーザが生成したコンテンツプラットフォームを害する危険性が指摘され,特定のタスクにおいてSSLに適さないことが示唆された。
関連論文リスト
- How to Craft Backdoors with Unlabeled Data Alone? [54.47006163160948]
自己教師型学習(SSL)は、経済的かつスケーラブルな方法でリッチな機能を学ぶことができる。
リリースされたデータセットが悪意ある毒を盛られた場合、テストサンプルにトリガーが注入された場合、バックドアのSSLモデルはひどい振る舞いをする可能性がある。
本稿では, 疑似ラベルを用いたクラスタリングに基づく選別と, 相互情報原理に基づくコントラスト選択の2つの方法を提案する。
論文 参考訳(メタデータ) (2024-04-10T02:54:18Z) - Self-supervised learning for skin cancer diagnosis with limited training data [0.196629787330046]
自己教師付き学習(SSL)は、限られたトレーニングデータを持つシナリオに対するImageNetの標準教師付き事前トレーニングの代替である。
textitfurther SSL をタスク固有のデータセットで事前トレーニングし、その実装は教師あり転送学習によって動機づけられる。
タスク固有のデータに対するより最小限のSSL事前トレーニングは、限られたラベル付きデータによる医療画像分類タスクにおいて、ImageNet上の大規模なSSL事前トレーニングと同じくらい効果的である。
論文 参考訳(メタデータ) (2024-01-01T08:11:38Z) - Erasing Self-Supervised Learning Backdoor by Cluster Activation Masking [65.44477004525231]
研究者は最近、自己監視学習(SSL)がバックドア攻撃に脆弱であることを発見した。
本稿では,クラスタアクティベーションマスキングによるSSLバックドアの消去を提案し,新しいPoisonCAM法を提案する。
ImageNet-100の最先端手法の3%と比較して,バックドアトリガ検出の精度は96%であった。
論文 参考訳(メタデータ) (2023-12-13T08:01:15Z) - Microbial Genetic Algorithm-based Black-box Attack against Interpretable
Deep Learning Systems [16.13790238416691]
ホワイトボックス環境では、解釈可能なディープラーニングシステム(IDLS)が悪意のある操作に対して脆弱であることが示されている。
本稿では,IDLSに対するクエリ効率の高いScoreベースのブラックボックス攻撃QuScoreを提案する。
論文 参考訳(メタデータ) (2023-07-13T00:08:52Z) - ESTAS: Effective and Stable Trojan Attacks in Self-supervised Encoders
with One Target Unlabelled Sample [16.460288815336902]
ESTASは1つのターゲットクラスサンプルで99%の攻撃成功率(ASR)を達成する。
従来の研究と比較すると、ESTASは平均で30%のASR増加と8.3%の精度向上を達成した。
論文 参考訳(メタデータ) (2022-11-20T08:58:34Z) - DATA: Domain-Aware and Task-Aware Pre-training [94.62676913928831]
我々は、自己教師付き学習(SSL)に特化した、シンプルで効果的なNASアプローチであるDataを提示する。
提案手法は,画像分類,オブジェクト検出,セマンティックセグメンテーションなど,下流タスクにおける計算コストの広い範囲にわたる有望な結果を実現する。
論文 参考訳(メタデータ) (2022-03-17T02:38:49Z) - Trash to Treasure: Harvesting OOD Data with Cross-Modal Matching for
Open-Set Semi-Supervised Learning [101.28281124670647]
オープンセット半教師付き学習(Open-set SSL)では、ラベルなしデータにOOD(Out-of-distribution)サンプルを含む、難しいが実用的なシナリオを調査する。
我々は、OODデータの存在を効果的に活用し、特徴学習を増強する新しいトレーニングメカニズムを提案する。
我々のアプローチは、オープンセットSSLのパフォーマンスを大幅に向上させ、最先端技術よりも大きなマージンで性能を向上します。
論文 参考訳(メタデータ) (2021-08-12T09:14:44Z) - Poisoning and Backdooring Contrastive Learning [26.093821359987224]
CLIPのような対照的な学習方法は、ノイズの多いデータセットと未処理のデータセットでトレーニングする。
この慣行がバックドアや毒殺を重大な脅威にしていることを示す。
論文 参考訳(メタデータ) (2021-06-17T17:20:45Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z) - Witches' Brew: Industrial Scale Data Poisoning via Gradient Matching [56.280018325419896]
Data Poisoning攻撃は、トレーニングデータを変更して、そのようなデータでトレーニングされたモデルを悪意を持って制御する。
我々は「スクラッチから」と「クリーンラベルから」の両方である特に悪意のある毒物攻撃を分析します。
フルサイズで有毒なImageNetデータセットをスクラッチからトレーニングした現代のディープネットワークにおいて、ターゲットの誤分類を引き起こすのは、これが初めてであることを示す。
論文 参考訳(メタデータ) (2020-09-04T16:17:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。