論文の概要: SINCon: Mitigate LLM-Generated Malicious Message Injection Attack for Rumor Detection
- arxiv url: http://arxiv.org/abs/2504.07135v1
- Date: Mon, 07 Apr 2025 08:20:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-11 12:24:04.957708
- Title: SINCon: Mitigate LLM-Generated Malicious Message Injection Attack for Rumor Detection
- Title(参考訳): SINCon: 噂検出のためのLLM生成悪意メッセージインジェクション攻撃を緩和する
- Authors: Mingqing Zhang, Qiang Liu, Xiang Tao, Shu Wu, Liang Wang,
- Abstract要約: コントラスト学習(SINCon)によるノードの予測的影響のシミュレーションを提案する。
SINConは、異なる重要性を持つノードが予測により均一な影響を及ぼすグラフ表現を学ぶことをモデルに推奨する。
TwitterとWeiboデータセットの実験では、SINConはクリーンデータに対する高い分類精度を保持するだけでなく、LLM駆動のメッセージインジェクション攻撃に対する耐性を大幅に向上させる。
- 参考スコア(独自算出の注目度): 21.342632695285364
- License:
- Abstract: In the era of rapidly evolving large language models (LLMs), state-of-the-art rumor detection systems, particularly those based on Message Propagation Trees (MPTs), which represent a conversation tree with the post as its root and the replies as its descendants, are facing increasing threats from adversarial attacks that leverage LLMs to generate and inject malicious messages. Existing methods are based on the assumption that different nodes exhibit varying degrees of influence on predictions. They define nodes with high predictive influence as important nodes and target them for attacks. If the model treats nodes' predictive influence more uniformly, attackers will find it harder to target high predictive influence nodes. In this paper, we propose Similarizing the predictive Influence of Nodes with Contrastive Learning (SINCon), a defense mechanism that encourages the model to learn graph representations where nodes with varying importance have a more uniform influence on predictions. Extensive experiments on the Twitter and Weibo datasets demonstrate that SINCon not only preserves high classification accuracy on clean data but also significantly enhances resistance against LLM-driven message injection attacks.
- Abstract(参考訳): 急速に進化する大規模言語モデル(LLM)の時代には、特にメッセージ伝搬木(MPT)に基づく最新の噂検出システムは、投稿をそのルーツとし、返信をその子孫とする会話ツリーを表現し、LLMを利用して悪意あるメッセージを生成し、注入する敵からの脅威が増大している。
既存の方法は、異なるノードが予測に様々な影響を及ぼすという仮定に基づいている。
予測的影響の高いノードを重要なノードとして定義し、攻撃対象とする。
モデルがノードの予測的影響をより均一に扱うと、攻撃者は高い予測的影響ノードを標的にするのが難しくなる。
本稿では,異なる重要度を持つノードが予測により均一な影響を及ぼすグラフ表現の学習を促す防衛機構であるSINConを用いて,ノードの予測的影響を単純化することを提案する。
TwitterとWeiboデータセットの大規模な実験では、SINConはクリーンなデータに対する高い分類精度を保持するだけでなく、LLM駆動のメッセージインジェクション攻撃に対する耐性を大幅に向上させる。
関連論文リスト
- Attack-in-the-Chain: Bootstrapping Large Language Models for Attacks Against Black-box Neural Ranking Models [111.58315434849047]
本稿では,アタック・イン・ザ・チェーン(Attack-in-the-Chain)という新しいランキングアタックフレームワークを紹介する。
大型言語モデル(LLMs)とニューラルランキングモデル(NRMs)の相互作用をチェーン・オブ・ソートに基づいて追跡する。
2つのWeb検索ベンチマークによる実験結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2024-12-25T04:03:09Z) - Epidemiology-informed Network for Robust Rumor Detection [59.89351792706995]
本稿では, 疫学知識を統合し, 性能を高めるための新しい疫学情報ネットワーク(EIN)を提案する。
疫学理論をうわさ検出に適応させるため,各利用者が情報源情報に対する姿勢を付加することが期待されている。
実験結果から,提案したEINは実世界のデータセット上で最先端の手法より優れるだけでなく,樹木の深度にまたがる堅牢性も向上することが示された。
論文 参考訳(メタデータ) (2024-11-20T00:43:32Z) - Rethinking Targeted Adversarial Attacks For Neural Machine Translation [56.10484905098989]
本報告では,NMTが標的とする敵攻撃に対して,信頼性の高い攻撃結果をもたらす可能性のある新たな設定を提案する。
新しい設定では、敵の例を作成するためのTWGA(Targeted Word Gradient Adversarial Attack)手法を提案する。
実験の結果,提案手法はNMTシステムに対する敵攻撃に対して忠実な攻撃効果をもたらす可能性が示唆された。
論文 参考訳(メタデータ) (2024-07-07T10:16:06Z) - Robustness Inspired Graph Backdoor Defense [30.82433380830665]
グラフニューラルネットワーク(GNN)は,ノード分類やグラフ分類といったタスクにおいて,有望な結果を達成している。
最近の研究で、GNNはバックドア攻撃に弱いことが判明し、実際の採用に重大な脅威をもたらしている。
本研究では,裏口検出にランダムなエッジドロップを用いることにより,汚染ノードとクリーンノードを効率的に識別できることを理論的に示す。
論文 参考訳(メタデータ) (2024-06-14T08:46:26Z) - A Geometrical Approach to Evaluate the Adversarial Robustness of Deep
Neural Networks [52.09243852066406]
対向収束時間スコア(ACTS)は、対向ロバストネス指標として収束時間を測定する。
我々は,大規模画像Netデータセットに対する異なる敵攻撃に対して,提案したACTSメトリックの有効性と一般化を検証する。
論文 参考訳(メタデータ) (2023-10-10T09:39:38Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Sparse Vicious Attacks on Graph Neural Networks [3.246307337376473]
この研究は、GNNベースのリンク予測モデルに対する特定のホワイトボックス攻撃に焦点を当てている。
本稿では,このタイプのリンク予測攻撃をマウントする新しいフレームワークと手法であるSAVAGEを提案する。
実世界のデータセットと合成データセットを用いて行った実験は、SAVAGEを通じて実施された敵攻撃が実際に高い攻撃成功率を達成することを示した。
論文 参考訳(メタデータ) (2022-09-20T12:51:24Z) - What Does the Gradient Tell When Attacking the Graph Structure [44.44204591087092]
本稿では,GNNのメッセージパッシング機構により,攻撃者がクラス間エッジを増大させる傾向があることを示す。
異なるノードを接続することで、攻撃者はより効果的にノード機能を破損させ、そのような攻撃をより有利にする。
本研究では,攻撃効率と非受容性のバランスを保ち,より優れた非受容性を実現するために攻撃効率を犠牲にする,革新的な攻撃損失を提案する。
論文 参考訳(メタデータ) (2022-08-26T15:45:20Z) - Characterizing the adversarial vulnerability of speech self-supervised
learning [95.03389072594243]
我々は,ゼロ知識とリミテッド知識の両方の敵からの攻撃の下で,そのようなパラダイムの敵対的脆弱性を調査するための最初の試みを行う。
実験結果から, SUPERB が提案するパラダイムは, 限られた知識を持つ敵に対して脆弱であることが示唆された。
論文 参考訳(メタデータ) (2021-11-08T08:44:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。