論文の概要: Graph Representation-based Model Poisoning on Federated LLMs in CyberEdge Networks
- arxiv url: http://arxiv.org/abs/2507.01694v1
- Date: Wed, 02 Jul 2025 13:20:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:23:00.253748
- Title: Graph Representation-based Model Poisoning on Federated LLMs in CyberEdge Networks
- Title(参考訳): サイバーエッジネットワークにおけるフェデレーションLDMにおけるグラフ表現に基づくモデルポジショニング
- Authors: Hanlin Cai, Haofan Dong, Houtianfu Wang, Kai Li, Ozgur B. Akan,
- Abstract要約: フェデレートされた大規模言語モデル(FedLLMs)はCyberEdgeネットワークで強力な生成機能を提供する。
FedLLMは、モデル中毒の攻撃に対して非常に脆弱である。
本稿では,FedLLMの最近のモデル中毒技術と既存の防御機構について概説する。
次に、新しいグラフ表現に基づくモデル中毒について検討する。
- 参考スコア(独自算出の注目度): 3.5233863453805143
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated large language models (FedLLMs) provide powerful generative capabilities in CyberEdge networks while protecting data privacy. However, FedLLMs remains highly vulnerable to model poisoning attacks. This article first reviews recent model poisoning techniques and existing defense mechanisms for FedLLMs, highlighting critical limitations, particularly under non-IID text distributions. In particular, current defenses primarily utilize distance-based outlier detection or norm constraints, operating under the assumption that adversarial updates significantly diverge from benign statistics. This assumption can fail when facing adaptive attackers targeting billionparameter LLMs. Next, this article investigates emerging Graph Representation-Based Model Poisoning (GRMP), a novel attack paradigm that leverages higher-order correlations among honest client gradients to synthesize malicious updates indistinguishable from legitimate model updates. GRMP can effectively evade advanced defenses, resulting in substantial accuracy loss and performance degradation. Moreover, this article outlines a research roadmap emphasizing the importance of graph-aware secure aggregation methods, FedLLMs-specific vulnerability metrics, and evaluation frameworks to strengthen the robustness of future federated language model deployments.
- Abstract(参考訳): フェデレートされた大規模言語モデル(FedLLMs)は、データプライバシを保護しながらCyberEdgeネットワークに強力な生成機能を提供する。
しかし、FedLLMsは、モデル中毒の攻撃に対して非常に脆弱である。
本稿では,FedLLMのモデル中毒技術と既存の防御機構について概説し,特に非IIDテキスト配信における限界を強調した。
特に、現在の防衛は、主に距離に基づく外れ値検出またはノルム制約を利用しており、敵の更新が良質な統計と著しく異なるという仮定の下で運用されている。
この仮定は、数十億パラメータのLLMをターゲットにしたアダプティブアタックに直面すると失敗する可能性がある。
次に,グラフ表現に基づくモデルポジショニング(GRMP, Graph Representation-Based Model Poisoning)という新たな攻撃パラダイムについて検討する。
GRMPは高度な防御を効果的に回避でき、精度の低下と性能の低下をもたらす。
さらに、本稿では、グラフ対応のセキュアアグリゲーション手法、FedLLMs固有の脆弱性メトリクス、および将来のフェデレーション言語モデル展開の堅牢性を強化するための評価フレームワークの重要性を強調した研究ロードマップを概説する。
関連論文リスト
- Explainer-guided Targeted Adversarial Attacks against Binary Code Similarity Detection Models [12.524811181751577]
我々は,BCSDモデルに対する敵攻撃に対する新たな最適化を提案する。
特に,攻撃目標は,モデル予測を特定の範囲に制限することである。
我々の攻撃は、モデル決定境界の解釈において、ブラックボックス、モデルに依存しない説明器の優れた能力を活用する。
論文 参考訳(メタデータ) (2025-06-05T08:29:19Z) - MISLEADER: Defending against Model Extraction with Ensembles of Distilled Models [56.09354775405601]
モデル抽出攻撃は、クエリアクセスを通じてブラックボックスモデルの機能を複製することを目的としている。
既存のディフェンスでは、アタッカークエリにはオフ・オブ・ディストリビューション(OOD)サンプルがあることを前提としており、不審な入力を検出し破壊することができる。
OOD仮定に依存しない新しい防衛戦略であるMISLEADERを提案する。
論文 参考訳(メタデータ) (2025-06-03T01:37:09Z) - Constrained Network Adversarial Attacks: Validity, Robustness, and Transferability [0.0]
研究は、既存の敵攻撃手法の重大な欠陥を明らかにしている。
ドメイン固有の制約の頻繁な違反は、IoTやネットワークトラフィックに固有のもので、最大80.3%の敵のサンプルが無効になることを示している。
この研究は、セキュリティクリティカルなIoTおよびネットワークアプリケーションのための堅牢なML/DLモデルの評価と設計において、ドメイン制約とモデルアーキテクチャの両方を考慮することの重要性を強調している。
論文 参考訳(メタデータ) (2025-05-02T15:01:42Z) - Adversarial Training for Defense Against Label Poisoning Attacks [53.893792844055106]
ラベル中毒攻撃は機械学習モデルに重大なリスクをもたらす。
本稿では,これらの脅威に対処するために,サポートベクトルマシン(SVM)に基づく新たな対角的防御戦略を提案する。
提案手法は, 様々なモデルアーキテクチャに対応し, カーネルSVMを用いた予測勾配降下アルゴリズムを用いて, 対向学習を行う。
論文 参考訳(メタデータ) (2025-02-24T13:03:19Z) - Do Spikes Protect Privacy? Investigating Black-Box Model Inversion Attacks in Spiking Neural Networks [0.0]
この研究は、スパイキングニューラルネットワーク(SNN)に対するブラックボックスモデル反転(MI)攻撃の最初の研究である。
我々は、入力変換のためのレートベースの符号化と出力解釈のための復号機構を組み込むことにより、生成逆MIフレームワークをスパイク領域に適用する。
以上の結果から,SNNはANNよりもMI攻撃に対する抵抗性が有意に高いことが示唆された。
論文 参考訳(メタデータ) (2025-02-08T10:02:27Z) - HarmLevelBench: Evaluating Harm-Level Compliance and the Impact of Quantization on Model Alignment [1.8843687952462742]
本稿では,現在の脱獄技術とLLM脆弱性評価のギャップに対処することを目的としている。
私たちの貢献は、複数の害レベルにわたるモデル出力の有害性を評価するために設計された、新しいデータセットの作成を含む。
Vicuna 13B v1.5モデルをターゲットとした、最先端の脱獄攻撃の包括的なベンチマークを提供する。
論文 参考訳(メタデータ) (2024-11-11T10:02:49Z) - A Closer Look at GAN Priors: Exploiting Intermediate Features for Enhanced Model Inversion Attacks [43.98557963966335]
Model Inversion (MI)攻撃は、出力情報を利用して、リリースされたモデルからプライバシーに敏感なトレーニングデータを再構築することを目的としている。
GAN(Generative Adversarial Network)の最近の進歩は、MI攻撃の性能向上に大きく貢献している。
本稿では,GAN構造を分解し,中間ブロック間の特徴を利用する中間特徴拡張生成モデル変換(IF-GMI)を提案する。
論文 参考訳(メタデータ) (2024-07-18T19:16:22Z) - RigorLLM: Resilient Guardrails for Large Language Models against Undesired Content [62.685566387625975]
現在の緩和戦略は効果はあるものの、敵の攻撃下では弾力性がない。
本稿では,大規模言語モデルのための弾力性ガードレール(RigorLLM)について紹介する。
論文 参考訳(メタデータ) (2024-03-19T07:25:02Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。