論文の概要: Efficient Availability Attacks against Supervised and Contrastive
Learning Simultaneously
- arxiv url: http://arxiv.org/abs/2402.04010v1
- Date: Tue, 6 Feb 2024 14:05:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 14:43:22.769845
- Title: Efficient Availability Attacks against Supervised and Contrastive
Learning Simultaneously
- Title(参考訳): 監視学習とコントラスト学習を同時に行う高能率アベイラビリティーアタック
- Authors: Yihan Wang and Yifan Zhu and Xiao-Shan Gao
- Abstract要約: 本稿では、SLとCLの両方に有効な攻撃を得るために、教師付きエラー最小化やフレームワークにおける対照的なデータ拡張を提案する。
提案したAUE攻撃とAAP攻撃は,SLアルゴリズムとCLアルゴリズムにまたがる最先端の非学習性を実現し,消費電力を低減し,現実の応用の可能性を示す。
- 参考スコア(独自算出の注目度): 26.018467038778006
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Availability attacks can prevent the unauthorized use of private data and
commercial datasets by generating imperceptible noise and making unlearnable
examples before release. Ideally, the obtained unlearnability prevents
algorithms from training usable models. When supervised learning (SL)
algorithms have failed, a malicious data collector possibly resorts to
contrastive learning (CL) algorithms to bypass the protection. Through
evaluation, we have found that most of the existing methods are unable to
achieve both supervised and contrastive unlearnability, which poses risks to
data protection. Different from recent methods based on contrastive error
minimization, we employ contrastive-like data augmentations in supervised error
minimization or maximization frameworks to obtain attacks effective for both SL
and CL. Our proposed AUE and AAP attacks achieve state-of-the-art worst-case
unlearnability across SL and CL algorithms with less computation consumption,
showcasing prospects in real-world applications.
- Abstract(参考訳): アベイラビリティ攻撃は、不可避なノイズを生成し、リリース前に説明不能な例を作ることで、プライベートデータや商用データセットの不正使用を防止することができる。
理想的には、得られた非学習性は、アルゴリズムが使用可能なモデルをトレーニングすることを防ぐ。
教師付き学習(SL)アルゴリズムが失敗した場合、悪意のあるデータコレクタは、保護を回避するためにコントラスト学習(CL)アルゴリズムを利用する可能性がある。
評価の結果,既存の手法のほとんどは,データ保護にリスクをもたらす教師付きおよび対照的な非学習性の両方を達成できないことがわかった。
コントラストエラー最小化に基づく最近の手法とは異なり、教師付きエラー最小化や最大化フレームワークにおけるコントラストライクなデータ拡張を用いて、slとclの両方に有効な攻撃を得る。
提案したAUEおよびAAP攻撃は,実世界のアプリケーションにおいて,計算量が少なく,SLおよびCLアルゴリズムをまたいだ最先端の非学習性を実現する。
関連論文リスト
- Low-Cost High-Power Membership Inference Attacks [17.128537906121355]
メンバシップ推論攻撃は、機械学習モデルのトレーニングに特定のデータポイントを使用したかどうかを検出することを目的としている。
近年の強力な攻撃は計算コストが高く、様々な条件下では不整合性があり、実際のプライバシーリスク評価には信頼性が低い。
我々は,計算オーバーヘッドを最小限に抑えながら,人口データとモデルのトレーニングデータとを正確に区別する,新しい,効率的で堅牢なメンバシップ推論攻撃(RMIA)を設計する。
論文 参考訳(メタデータ) (2023-12-06T03:18:49Z) - Re-thinking Data Availablity Attacks Against Deep Neural Networks [53.64624167867274]
本稿では、未学習例の概念を再検討し、既存のロバストな誤り最小化ノイズが不正確な最適化目標であることを示す。
本稿では,計算時間要件の低減による保護性能の向上を図った新しい最適化パラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-18T04:03:51Z) - Adaptive Negative Evidential Deep Learning for Open-set Semi-supervised
Learning [73.31528264881868]
オープンセット半教師付き学習(Open-set SSL)は、ラベル付きデータ(inliers)で観測されない新しいカテゴリ(outliers)を含むラベル付きデータとテストデータを含む、より実践的なシナリオである。
本研究では,様々な不確かさを定量化するための外乱検出器として顕在的深層学習(EDL)を導入し,自己学習と推論のための異なる不確実性指標を設計する。
Inlierとoutlierの両方を含むラベルなしデータセットに適合するように、新しい適応的負の最適化戦略を提案する。
論文 参考訳(メタデータ) (2023-03-21T09:07:15Z) - Active Semi-Supervised Learning by Exploring Per-Sample Uncertainty and
Consistency [30.94964727745347]
そこで我々は,ASSL(Active Semi-supervised Learning)と呼ばれる手法を提案し,低コストでモデルの精度を向上させる。
ASSLには、ラベルなしデータの使用により、アクティブラーニング(AL)よりもダイナミックなモデル更新が含まれている。
ASSLは同じ性能を保ちながら、半教師あり学習(SSL)の約5.3倍の計算効率を達成した。
論文 参考訳(メタデータ) (2023-03-15T22:58:23Z) - Unlearnable Clusters: Towards Label-agnostic Unlearnable Examples [128.25509832644025]
インターネット上の視覚的プライバシー漏洩に対して、未学習の例(UE)を開発することへの関心が高まっている。
UEは、目に見えないが学習不可能なノイズを付加したトレーニングサンプルであり、機械学習モデルの不正なトレーニングを防ぐことができる。
本稿では,無学習クラスタ (UC) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-12-31T04:26:25Z) - Effective Targeted Attacks for Adversarial Self-Supervised Learning [58.14233572578723]
ラベル情報を持たないモデルにおいて堅牢性を達成する手段として、教師なしの敵訓練(AT)が強調されている。
本稿では,敵のSSLフレームワークを効果的に生成するために,敵の攻撃を標的とした新たな正のマイニングを提案する。
提案手法は,非コントラスト型SSLフレームワークに適用した場合のロバストネスの大幅な向上と,コントラスト型SSLフレームワークによるロバストネスの向上を示す。
論文 参考訳(メタデータ) (2022-10-19T11:43:39Z) - DEALIO: Data-Efficient Adversarial Learning for Imitation from
Observation [57.358212277226315]
観察ifoからの模倣学習において、学習エージェントは、実演者の生成した制御信号にアクセスせずに、実演行動の観察のみを用いて実演エージェントを模倣しようとする。
近年、逆模倣学習に基づく手法は、ifO問題に対する最先端のパフォーマンスをもたらすが、データ非効率でモデルなしの強化学習アルゴリズムに依存するため、サンプルの複雑さに悩まされることが多い。
この問題は、サンプルの収集が時間、エネルギー、およびリスクの面で高いコストを被る可能性がある現実世界の設定に展開することは非現実的です。
よりデータ効率の高いifOアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-03-31T23:46:32Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。