論文の概要: Generative Poisoning Using Random Discriminators
- arxiv url: http://arxiv.org/abs/2211.01086v1
- Date: Wed, 2 Nov 2022 12:54:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-03 12:51:38.970788
- Title: Generative Poisoning Using Random Discriminators
- Title(参考訳): ランダム判別器を用いた生成的中毒
- Authors: Dirren van Vlijmen, Alex Kolmus, Zhuoran Liu, Zhengyu Zhao, and Martha
Larson
- Abstract要約: ShortcutGenは、ジェネレータを学習することで、サンプル依存のエラー最小化摂動を生成する新しいデータ中毒攻撃である。
ShortcutGenは、ラベルのない方法で1つのフォワードパスで摂動を生成することができます。
- 参考スコア(独自算出の注目度): 4.313716802238207
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce ShortcutGen, a new data poisoning attack that generates
sample-dependent, error-minimizing perturbations by learning a generator. The
key novelty of ShortcutGen is the use of a randomly-initialized discriminator,
which provides spurious shortcuts needed for generating poisons. Different from
recent, iterative methods, our ShortcutGen can generate perturbations with only
one forward pass in a label-free manner, and compared to the only existing
generative method, DeepConfuse, our ShortcutGen is faster and simpler to train
while remaining competitive. We also demonstrate that integrating a simple
augmentation strategy can further boost the robustness of ShortcutGen against
early stopping, and combining augmentation and non-augmentation leads to new
state-of-the-art results in terms of final validation accuracy, especially in
the challenging, transfer scenario. Lastly, we speculate, through uncovering
its working mechanism, that learning a more general representation space could
allow ShortcutGen to work for unseen data.
- Abstract(参考訳): 我々は、新しいデータ中毒攻撃であるShortcutGenを紹介し、ジェネレータを学習することで、サンプル依存のエラー最小化摂動を生成する。
ShortcutGenの重要な特徴は、ランダムに初期化され、毒を発生させるのに必要な急激なショートカットを提供する識別器を使用することである。
最近の反復的な方法とは異なり、私たちのShortcutGenはラベルなしの方法で1つのフォワードパスのみの摂動を生成することができ、既存の生成メソッドであるDeepConfuseと比較して、競争力を維持しながらトレーニングがより速く、より簡単です。
また,簡単な拡張戦略を統合することで,早期停止に対するショートカットゲンのロバスト性がさらに向上することを示すとともに,拡張と非拡張を組み合わせることで,最終検証精度,特に困難な転送シナリオにおいて,新たな最先端結果が得られることを実証した。
最後に、動作メカニズムを明らかにすることで、より一般的な表現空間を学習することで、ShortcutGenが目に見えないデータを扱うことができると推測する。
関連論文リスト
- CLIP-Guided Generative Networks for Transferable Targeted Adversarial Attacks [52.29186466633699]
トランスファー可能な敵攻撃は、ブラックボックスのシナリオで敵が特定した予測を出力するモデルを誤解させることを目的としている。
textitsingle-target 生成攻撃は、高い転送可能な摂動を生成するために、各ターゲットクラスのジェネレータを訓練する。
textbfCLIP-guided textbfGenerative textbfNetwork with textbfCross-attention module (CGNC) to enhance multi-target attack。
論文 参考訳(メタデータ) (2024-07-14T12:30:32Z) - Constructing Ancestral Recombination Graphs through Reinforcement Learning [0.0]
我々は、短い祖先組換えグラフを構築するための新しいアプローチを提案する:強化学習(RL)。
我々は、一組の遺伝的配列とその最も最近の共通の祖先の最も短い経路を見つけることと、迷路の入り口と出口の間の最も短い経路を見つけることの類似性を生かしている。
以上の結果から,RLは短いARGを構築するために最適化されたアルゴリズムで構築されたARGと同等に短時間で構築できることがわかった。
論文 参考訳(メタデータ) (2024-06-17T18:42:03Z) - Neural Exec: Learning (and Learning from) Execution Triggers for Prompt Injection Attacks [20.058741696160798]
我々はニューラルエクセルと呼ばれる新しいインジェクション攻撃のファミリーを導入する。
本研究では,実行トリガの生成を識別可能な探索問題として概念化し,学習に基づく手法を用いて自律的に生成可能であることを示す。
論文 参考訳(メタデータ) (2024-03-06T15:40:30Z) - Parameter-Efficient Detoxification with Contrastive Decoding [78.5124331048714]
Detoxification Generator (DETOXIGEN) は、不要なスタイルから退避する推論時間アルゴリズムである。
実際の生成では、トレーニングされたデトキシファイタを使用して、生成元が各デコードステップでコントラストする好ましくないトークンを生成する。
生成品質を損なうことなく,従来のデトキシフィケーション指標のアプローチを著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2024-01-13T01:46:20Z) - A Pseudo-Semantic Loss for Autoregressive Models with Logical
Constraints [87.08677547257733]
ニューロシンボリックAIは、純粋にシンボリックな学習とニューラルな学習のギャップを埋める。
本稿では,ニューラルネットワークの出力分布に対するシンボリック制約の可能性を最大化する方法を示す。
また,スドクと最短経路予測の手法を自己回帰世代として評価した。
論文 参考訳(メタデータ) (2023-12-06T20:58:07Z) - Chroma-VAE: Mitigating Shortcut Learning with Generative Classifiers [44.97660597940641]
生成モデルだけではショートカット学習を防ぐには不十分であることを示す。
特にChroma-VAE(英語版)を提案する。これは、VAEが最初、小さな潜伏部分空間でショートカットを分離するために訓練される2段階のアプローチである。
ベンチマークや実世界のショートカット学習におけるクロマVAEの有効性の実証に加えて, 生成型分類器の潜時空間を操作して, 特定の相関関係を分離・解釈する可能性を強調した。
論文 参考訳(メタデータ) (2022-11-28T11:27:50Z) - General Cutting Planes for Bound-Propagation-Based Neural Network
Verification [144.7290035694459]
任意の切削平面制約を加えることができるような境界伝搬手順を一般化する。
MIPソルバは、境界プロパゲーションベースの検証器を強化するために高品質な切削面を生成することができる。
本手法は,oval20ベンチマークを完全解き,oval21ベンチマークの2倍のインスタンスを検証できる最初の検証器である。
論文 参考訳(メタデータ) (2022-08-11T10:31:28Z) - Poisoned classifiers are not only backdoored, they are fundamentally
broken [84.67778403778442]
一般的に研究されている、分類モデルに対するバックドア中毒攻撃の下で、攻撃者はトレーニングデータのサブセットに小さなトリガーを追加する。
毒を盛った分類器は、引き金を持つ敵のみに弱いと推定されることが多い。
本稿では,このバックドア型分類器の考え方が誤りであることを実証的に示す。
論文 参考訳(メタデータ) (2020-10-18T19:42:44Z) - Scalable Attack on Graph Data by Injecting Vicious Nodes [44.56647129718062]
グラフ畳み込みネットワーク(GCN)は、注意深い設計の攻撃に対して脆弱である。
我々は、より実用的な攻撃シナリオを考慮した、よりスケーラブルなフレームワークであるApproximate Fast Gradient Sign Method (AFGSM)を開発した。
提案手法はGCNの分類精度を大幅に低減し,攻撃性能を損なうことなく既存の手法よりもはるかに高速である。
論文 参考訳(メタデータ) (2020-04-22T02:11:13Z) - Certified Robustness to Label-Flipping Attacks via Randomized Smoothing [105.91827623768724]
機械学習アルゴリズムは、データ中毒攻撃の影響を受けやすい。
任意の関数に対するランダム化スムージングの統一的なビューを示す。
本稿では,一般的なデータ中毒攻撃に対して,ポイントワイズで確実に堅牢な分類器を構築するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2020-02-07T21:28:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。