論文の概要: EvaLDA: Efficient Evasion Attacks Towards Latent Dirichlet Allocation
- arxiv url: http://arxiv.org/abs/2012.04864v2
- Date: Mon, 12 Apr 2021 03:12:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 01:47:37.920016
- Title: EvaLDA: Efficient Evasion Attacks Towards Latent Dirichlet Allocation
- Title(参考訳): evalda: 潜在ディリクレ割り当てに対する効率的な回避攻撃
- Authors: Qi Zhou, Haipeng Chen, Yitao Zheng, Zhen Wang
- Abstract要約: ラテント・ディリクレ配置モデルが推論時間における逆摂動に対して脆弱かどうかを検討する。
そこで我々は,新しい効率的なアルゴリズムであるevaldaを提案する。
私たちの仕事は、LDAモデルへの回避攻撃の力と制限に関する重要な洞察を提供します。
- 参考スコア(独自算出の注目度): 9.277398460006394
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As one of the most powerful topic models, Latent Dirichlet Allocation (LDA)
has been used in a vast range of tasks, including document understanding,
information retrieval and peer-reviewer assignment. Despite its tremendous
popularity, the security of LDA has rarely been studied. This poses severe
risks to security-critical tasks such as sentiment analysis and peer-reviewer
assignment that are based on LDA. In this paper, we are interested in knowing
whether LDA models are vulnerable to adversarial perturbations of benign
document examples during inference time. We formalize the evasion attack to LDA
models as an optimization problem and prove it to be NP-hard. We then propose a
novel and efficient algorithm, EvaLDA to solve it. We show the effectiveness of
EvaLDA via extensive empirical evaluations. For instance, in the NIPS dataset,
EvaLDA can averagely promote the rank of a target topic from 10 to around 7 by
only replacing 1% of the words with similar words in a victim document. Our
work provides significant insights into the power and limitations of evasion
attacks to LDA models.
- Abstract(参考訳): 最も強力なトピックモデルのひとつとして、LDA(Latent Dirichlet Allocation)は、文書理解、情報検索、ピア・リビューアの割り当てなど、幅広いタスクで使用されている。
その大きな人気にもかかわらず、ldaの安全性の研究はほとんど行われていない。
これは、LDAに基づく感情分析やピアレビューアの割り当てのような、セキュリティクリティカルなタスクに深刻なリスクをもたらす。
本稿では,LDAモデルが推定時間における良性文書例の逆摂動に対して脆弱であるかどうかを考察する。
最適化問題としてLDAモデルへの回避攻撃を形式化し、NPハードであることを証明する。
次に,新しい効率的なアルゴリズム EvaLDA を提案し,その解法を提案する。
EvaLDAの有効性を広範囲な経験的評価により明らかにした。
例えば、NIPSデータセットでは、EvaLDAは、犠牲者文書内の単語の1%を類似した単語に置き換えることによって、ターゲットトピックのランクを平均10から7に引き上げることができる。
我々の研究は、LDAモデルへの回避攻撃のパワーと限界に関する重要な洞察を提供する。
関連論文リスト
- DALA: A Distribution-Aware LoRA-Based Adversarial Attack against
Language Models [64.79319733514266]
敵攻撃は入力データに微妙な摂動をもたらす可能性がある。
最近の攻撃方法は比較的高い攻撃成功率(ASR)を達成することができる。
そこで本研究では,分散ロラをベースとしたDALA(Adversarial Attack)手法を提案する。
論文 参考訳(メタデータ) (2023-11-14T23:43:47Z) - Revisiting Out-of-distribution Robustness in NLP: Benchmark, Analysis,
and LLMs Evaluations [111.88727295707454]
本稿では,NLP分野におけるアウト・オブ・ディストリビューション(OOD)のロバスト性に関する研究を再検討する。
本稿では, 明確な分化と分散の困難さを保証するための, ベンチマーク構築プロトコルを提案する。
我々は,OODロバスト性の分析と評価のための事前学習言語モデルの実験を行った。
論文 参考訳(メタデータ) (2023-06-07T17:47:03Z) - Why Should Adversarial Perturbations be Imperceptible? Rethink the
Research Paradigm in Adversarial NLP [83.66405397421907]
セキュリティシナリオにおけるテキスト敵検体の研究パラダイムを再考する。
最初に、セキュリティデータセットコレクションのAdvbenchを収集し、処理し、リリースします。
次に,現実の攻撃手法をシミュレートするために,現実の敵目標を容易に達成できるルールに基づく簡単な手法を提案する。
論文 参考訳(メタデータ) (2022-10-19T15:53:36Z) - Probabilistic Categorical Adversarial Attack & Adversarial Training [45.458028977108256]
敵対的な例の存在は、人々が安全クリティカルなタスクにディープニューラルネットワーク(DNN)を適用することに大きな懸念をもたらします。
分類データを用いて敵の例を生成する方法は重要な問題であるが、広範囲にわたる探索が欠如している。
本稿では,離散最適化問題を連続的な問題に変換する確率的カテゴリー逆攻撃(PCAA)を提案する。
論文 参考訳(メタデータ) (2022-10-17T19:04:16Z) - Exploring Adversarially Robust Training for Unsupervised Domain
Adaptation [71.94264837503135]
Unsupervised Domain Adaptation (UDA)メソッドは、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送することを目的としている。
本稿では、UDAのドメイン不変性を学習しながら、ATを介してラベルなしデータのロバスト性を高める方法について検討する。
本稿では,ARTUDA と呼ばれる UDA の適応的ロバストトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-02-18T17:05:19Z) - A Review of Adversarial Attack and Defense for Classification Methods [78.50824774203495]
本稿では,敵対的事例の生成と保護に焦点をあてる。
この論文は、多くの統計学者が、この重要かつエキサイティングな分野において、敵の事例を生成・防御することを奨励するものである。
論文 参考訳(メタデータ) (2021-11-18T22:13:43Z) - Exploring Robustness of Unsupervised Domain Adaptation in Semantic
Segmentation [74.05906222376608]
クリーンな画像とそれらの逆の例との一致を、出力空間における対照的な損失によって最大化する、逆向きの自己スーパービジョンUDA(ASSUDA)を提案する。
i) セマンティックセグメンテーションにおけるUDA手法のロバスト性は未解明のままであり, (ii) 一般的に自己スーパービジョン(回転やジグソーなど) は分類や認識などのイメージタスクに有効であるが, セグメンテーションタスクの識別的表現を学習する重要な監視信号の提供には失敗している。
論文 参考訳(メタデータ) (2021-05-23T01:50:44Z) - Latent Dirichlet Allocation Model Training with Differential Privacy [20.62970028874134]
Collapsed Gibbs Sampling(CGS)に基づくLDA学習アルゴリズムのプライバシ保護について検討する。
また,クラウドソースデータに基づくローカルプライベートなLDAトレーニングアルゴリズム(LP-LDA)を提案し,個々のデータコントリビュータに対して局所的な差分プライバシーを提供する。
論文 参考訳(メタデータ) (2020-10-09T06:58:40Z) - DAMIA: Leveraging Domain Adaptation as a Defense against Membership
Inference Attacks [22.10053473193636]
我々は、ドメイン適応(DA)を防衛アジニストメンバーシップ推論攻撃として活用するDAMIAを提案し、実装する。
我々の観察では、DAは、他の関連するデータセットを使用して保護されるデータセットを難読化し、両方のデータセットから機能を根本から抽出するモデルを導出する。
DAMIAによってトレーニングされたモデルは、ユーザビリティに無視できるフットプリントを持っている。
論文 参考訳(メタデータ) (2020-05-16T15:24:28Z) - Improving Reliability of Latent Dirichlet Allocation by Assessing Its
Stability Using Clustering Techniques on Replicated Runs [0.3499870393443268]
本研究は,LDAの安定度を再現走行の代入値と比較することによって検討する。
修正ジャカード係数を用いて、2つの生成トピックの類似性を定量化する。
S-CLOPはLDAモデルの安定性を評価するのに有用であることを示す。
論文 参考訳(メタデータ) (2020-02-14T07:10:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。