論文の概要: EvaLDA: Efficient Evasion Attacks Towards Latent Dirichlet Allocation
- arxiv url: http://arxiv.org/abs/2012.04864v2
- Date: Mon, 12 Apr 2021 03:12:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 01:47:37.920016
- Title: EvaLDA: Efficient Evasion Attacks Towards Latent Dirichlet Allocation
- Title(参考訳): evalda: 潜在ディリクレ割り当てに対する効率的な回避攻撃
- Authors: Qi Zhou, Haipeng Chen, Yitao Zheng, Zhen Wang
- Abstract要約: ラテント・ディリクレ配置モデルが推論時間における逆摂動に対して脆弱かどうかを検討する。
そこで我々は,新しい効率的なアルゴリズムであるevaldaを提案する。
私たちの仕事は、LDAモデルへの回避攻撃の力と制限に関する重要な洞察を提供します。
- 参考スコア(独自算出の注目度): 9.277398460006394
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As one of the most powerful topic models, Latent Dirichlet Allocation (LDA)
has been used in a vast range of tasks, including document understanding,
information retrieval and peer-reviewer assignment. Despite its tremendous
popularity, the security of LDA has rarely been studied. This poses severe
risks to security-critical tasks such as sentiment analysis and peer-reviewer
assignment that are based on LDA. In this paper, we are interested in knowing
whether LDA models are vulnerable to adversarial perturbations of benign
document examples during inference time. We formalize the evasion attack to LDA
models as an optimization problem and prove it to be NP-hard. We then propose a
novel and efficient algorithm, EvaLDA to solve it. We show the effectiveness of
EvaLDA via extensive empirical evaluations. For instance, in the NIPS dataset,
EvaLDA can averagely promote the rank of a target topic from 10 to around 7 by
only replacing 1% of the words with similar words in a victim document. Our
work provides significant insights into the power and limitations of evasion
attacks to LDA models.
- Abstract(参考訳): 最も強力なトピックモデルのひとつとして、LDA(Latent Dirichlet Allocation)は、文書理解、情報検索、ピア・リビューアの割り当てなど、幅広いタスクで使用されている。
その大きな人気にもかかわらず、ldaの安全性の研究はほとんど行われていない。
これは、LDAに基づく感情分析やピアレビューアの割り当てのような、セキュリティクリティカルなタスクに深刻なリスクをもたらす。
本稿では,LDAモデルが推定時間における良性文書例の逆摂動に対して脆弱であるかどうかを考察する。
最適化問題としてLDAモデルへの回避攻撃を形式化し、NPハードであることを証明する。
次に,新しい効率的なアルゴリズム EvaLDA を提案し,その解法を提案する。
EvaLDAの有効性を広範囲な経験的評価により明らかにした。
例えば、NIPSデータセットでは、EvaLDAは、犠牲者文書内の単語の1%を類似した単語に置き換えることによって、ターゲットトピックのランクを平均10から7に引き上げることができる。
我々の研究は、LDAモデルへの回避攻撃のパワーと限界に関する重要な洞察を提供する。
関連論文リスト
- Unveiling the Superior Paradigm: A Comparative Study of Source-Free Domain Adaptation and Unsupervised Domain Adaptation [52.36436121884317]
Source-Free Domain Adaptation (SFDA) は、現実のシナリオにおいて、Unsupervised Domain Adaptation (UDA) よりも一般的に優れていることを示す。
SFDAは、時間効率、ストレージ要件、対象とする学習目標、負の移動リスクの低減、過度な適合に対する堅牢性の向上といった利点を提供している。
利用可能なソースデータをマルチSFDA手法に効果的に統合する新しい重み推定法を提案する。
論文 参考訳(メタデータ) (2024-11-24T13:49:29Z) - Effective and Efficient Adversarial Detection for Vision-Language Models via A Single Vector [97.92369017531038]
Diverse hArmful Responses (RADAR) を用いた新しい laRge-scale Adervsarial 画像データセットを構築した。
そこで我々は,視覚言語モデル (VLM) の隠れ状態から抽出した1つのベクトルを利用して,入力中の良質な画像に対して対向画像を検出する,新しいiN時間埋め込み型AdveRSarial Image Detectction (NEARSIDE) 法を開発した。
論文 参考訳(メタデータ) (2024-10-30T10:33:10Z) - Enhancing Training Data Attribution for Large Language Models with Fitting Error Consideration [74.09687562334682]
Debias and Denoise Attribution (DDA) と呼ばれる新しいトレーニングデータ属性法を導入する。
提案手法は既存のアプローチよりも優れており,平均91.64%のAUCを実現している。
DDAは、様々なソースとLLaMA2、QWEN2、Mistralのような異なるスケールのモデルに対して、強力な汎用性とスケーラビリティを示す。
論文 参考訳(メタデータ) (2024-10-02T07:14:26Z) - ToDA: Target-oriented Diffusion Attacker against Recommendation System [19.546532220090793]
レコメンデーションシステム(RS)は、敵がユーザープロファイルを操作できる悪意のある攻撃を受けやすいため、バイアスのあるレコメンデーションにつながる。
最近の研究は、しばしばこれらの偽りのユーザープロファイルを作成するために生成モデルを使って追加のモジュールを統合する。
ターゲット指向拡散攻撃モデル(ToDA)を提案する。
ユーザープロファイルを高次元空間に変換し、ToDAのコアコンポーネントであるLatent Diffusion Attacker(LDA)と組み合わせる、事前訓練されたオートエンコーダが組み込まれている。
論文 参考訳(メタデータ) (2024-01-23T09:12:26Z) - Why Should Adversarial Perturbations be Imperceptible? Rethink the
Research Paradigm in Adversarial NLP [83.66405397421907]
セキュリティシナリオにおけるテキスト敵検体の研究パラダイムを再考する。
最初に、セキュリティデータセットコレクションのAdvbenchを収集し、処理し、リリースします。
次に,現実の攻撃手法をシミュレートするために,現実の敵目標を容易に達成できるルールに基づく簡単な手法を提案する。
論文 参考訳(メタデータ) (2022-10-19T15:53:36Z) - Exploring Adversarially Robust Training for Unsupervised Domain
Adaptation [71.94264837503135]
Unsupervised Domain Adaptation (UDA)メソッドは、ラベル付きソースドメインからラベル付きターゲットドメインに知識を転送することを目的としている。
本稿では、UDAのドメイン不変性を学習しながら、ATを介してラベルなしデータのロバスト性を高める方法について検討する。
本稿では,ARTUDA と呼ばれる UDA の適応的ロバストトレーニング手法を提案する。
論文 参考訳(メタデータ) (2022-02-18T17:05:19Z) - A Review of Adversarial Attack and Defense for Classification Methods [78.50824774203495]
本稿では,敵対的事例の生成と保護に焦点をあてる。
この論文は、多くの統計学者が、この重要かつエキサイティングな分野において、敵の事例を生成・防御することを奨励するものである。
論文 参考訳(メタデータ) (2021-11-18T22:13:43Z) - DAMIA: Leveraging Domain Adaptation as a Defense against Membership
Inference Attacks [22.10053473193636]
我々は、ドメイン適応(DA)を防衛アジニストメンバーシップ推論攻撃として活用するDAMIAを提案し、実装する。
我々の観察では、DAは、他の関連するデータセットを使用して保護されるデータセットを難読化し、両方のデータセットから機能を根本から抽出するモデルを導出する。
DAMIAによってトレーニングされたモデルは、ユーザビリティに無視できるフットプリントを持っている。
論文 参考訳(メタデータ) (2020-05-16T15:24:28Z) - Improving Reliability of Latent Dirichlet Allocation by Assessing Its
Stability Using Clustering Techniques on Replicated Runs [0.3499870393443268]
本研究は,LDAの安定度を再現走行の代入値と比較することによって検討する。
修正ジャカード係数を用いて、2つの生成トピックの類似性を定量化する。
S-CLOPはLDAモデルの安定性を評価するのに有用であることを示す。
論文 参考訳(メタデータ) (2020-02-14T07:10:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。