論文の概要: Graph Representation-based Model Poisoning on the Heterogeneous Internet of Agents
- arxiv url: http://arxiv.org/abs/2511.07176v1
- Date: Mon, 10 Nov 2025 15:06:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:45.315023
- Title: Graph Representation-based Model Poisoning on the Heterogeneous Internet of Agents
- Title(参考訳): エージェントの異種インターネット上でのグラフ表現に基づくモデルポジショニング
- Authors: Hanlin Cai, Houtianfu Wang, Haofan Dong, Kai Li, Ozgur B. Akan,
- Abstract要約: Internet of Agents (IoA)は、異種大規模言語モデル(LLM)エージェントが大規模に相互接続し協力できる統一されたエージェント中心のパラダイムを構想している。
このパラダイムの中では、フェデレートラーニング(FL)は、分散LLMエージェントがデータを集中化せずにグローバルモデルをコトレーニングできる重要なイネーブラーとして機能する。
グラフ表現に基づくモデル中毒(GRMP)攻撃は、観測された良性局所モデルを受動的に利用してパラメータ相関グラフを構築し、高次依存を捕捉・再生成するための逆変分グラフオートエンコーダを拡張する。
- 参考スコア(独自算出の注目度): 7.66383868842486
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Internet of Agents (IoA) envisions a unified, agent-centric paradigm where heterogeneous large language model (LLM) agents can interconnect and collaborate at scale. Within this paradigm, federated learning (FL) serves as a key enabler that allows distributed LLM agents to co-train global models without centralizing data. However, the FL-enabled IoA system remains vulnerable to model poisoning attacks, and the prevailing distance and similarity-based defenses become fragile at billion-parameter scale and under heterogeneous data distributions. This paper proposes a graph representation-based model poisoning (GRMP) attack, which passively exploits observed benign local models to construct a parameter correlation graph and extends an adversarial variational graph autoencoder to capture and reshape higher-order dependencies. The GRMP attack synthesizes malicious local models that preserve benign-like statistics while embedding adversarial objectives, remaining elusive to detection at the server. Experiments demonstrate a gradual drop in system accuracy under the proposed attack and the ineffectiveness of the prevailing defense mechanism in detecting the attack, underscoring a severe threat to the ambitious IoA paradigm.
- Abstract(参考訳): Internet of Agents (IoA)は、異種大規模言語モデル(LLM)エージェントが大規模に相互接続し協力できる統一されたエージェント中心のパラダイムを構想している。
このパラダイムの中では、フェデレートラーニング(FL)は、分散LLMエージェントがデータを集中化せずにグローバルモデルをコトレーニングできる重要なイネーブラーとして機能する。
しかし、FL対応のIoAシステムは、モデル中毒攻撃に対して脆弱なままであり、数十億パラメータスケールおよび異種データ分布下では、一般的な距離と類似性に基づく防御は脆弱である。
グラフ表現に基づくモデル中毒(GRMP)攻撃は、観測された良性局所モデルを受動的に利用してパラメータ相関グラフを構築し、高次依存を捕捉・再生成するための逆変分グラフオートエンコーダを拡張する。
GRMP攻撃は、敵対的目的を埋め込んだままに良性的な統計を保存する悪意のあるローカルモデルを合成し、サーバでの検知に寄与する。
実験は、提案した攻撃下でのシステム精度の段階的な低下と、攻撃を検出するための防御機構の非効率性を実証し、野心的なIoAパラダイムに対する深刻な脅威を浮き彫りにした。
関連論文リスト
- Exploiting Edge Features for Transferable Adversarial Attacks in Distributed Machine Learning [54.26807397329468]
この研究は、分散ディープラーニングシステムにおいて、これまで見過ごされていた脆弱性を探究する。
中間的特徴をインターセプトする敵は、依然として深刻な脅威となる可能性がある。
本稿では,分散環境に特化して設計されたエクスプロイト戦略を提案する。
論文 参考訳(メタデータ) (2025-07-09T20:09:00Z) - Graph Representation-based Model Poisoning on Federated Large Language Models [3.5233863453805143]
フェデレートされた大規模言語モデル(FedLLMs)は、データのプライバシを保持しながら、無線ネットワーク内で強力な生成機能を実現する。
本稿では,FedLLMのモデル中毒技術と既存の防御機構の最近の進歩について概説する。
さらに、グラフ表現に基づくモデル中毒(GRMP)は、良質なクライアント勾配間の高次相関を利用して、悪意ある更新を正当なものと区別できないものにする新興攻撃パラダイムである。
論文 参考訳(メタデータ) (2025-07-02T13:20:52Z) - FedGraM: Defending Against Untargeted Attacks in Federated Learning via Embedding Gram Matrix [8.745475105649192]
Federated Learning (FL)は、地理的に分散したクライアントが、ローカルモデルのみを共有することで、機械学習モデルを協調的にトレーニングすることを可能にする。
FLは、基盤となるデータ分散上でのグローバルモデルのパフォーマンスを低下させることを目的とした、未ターゲットの攻撃に対して脆弱である。
FLにおける未標的攻撃に対する防御を目的とした,新たなロバストアグリゲーション手法であるFedGraMを提案する。
論文 参考訳(メタデータ) (2025-05-20T07:26:54Z) - ATOM: A Framework of Detecting Query-Based Model Extraction Attacks for Graph Neural Networks [18.488168353080464]
グラフニューラルネットワーク(GNN)は、グラフベースの機械学習・アズ・ア・サービス(GML)プラットフォームで注目を集めているが、グラフベースのモデル抽出攻撃(MEAs)に弱いままである。
GNNに適した新しいリアルタイムMEA検出フレームワークであるATOMを提案する。
ATOMはシーケンシャルモデリングと強化学習を統合して、進化する攻撃パターンを動的に検出し、$k$coreの埋め込みを利用して構造特性をキャプチャし、検出精度を向上させる。
論文 参考訳(メタデータ) (2025-03-20T20:25:32Z) - Transferable Adversarial Attacks on SAM and Its Downstream Models [87.23908485521439]
本稿では,セグメント・アプライス・モデル(SAM)から微調整した様々な下流モデルに対する敵攻撃の可能性について検討する。
未知のデータセットを微調整したモデルに対する敵攻撃の有効性を高めるために,ユニバーサルメタ初期化(UMI)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-26T15:04:04Z) - Enhancing Adversarial Transferability with Adversarial Weight Tuning [50.01825144613307]
敵対的な例(AE)は、人間の観察者に対して良心を抱きながらモデルを誤解させた。
AWTは、勾配に基づく攻撃法とモデルに基づく攻撃法を組み合わせて、AEの転送可能性を高めるデータフリーチューニング手法である。
論文 参考訳(メタデータ) (2024-08-18T13:31:26Z) - Data-Agnostic Model Poisoning against Federated Learning: A Graph
Autoencoder Approach [65.2993866461477]
本稿では,フェデレートラーニング(FL)に対するデータに依存しないモデル中毒攻撃を提案する。
この攻撃はFLトレーニングデータの知識を必要とせず、有効性と検出不能の両方を達成する。
実験により、FLの精度は提案した攻撃の下で徐々に低下し、既存の防御機構では検出できないことが示された。
論文 参考訳(メタデータ) (2023-11-30T12:19:10Z) - Decentralized Adversarial Training over Graphs [44.03711922549992]
近年、敵攻撃に対する機械学習モデルの脆弱性が注目されている。
マルチエージェントシステムのための分散逆数フレームワークを開発する。
論文 参考訳(メタデータ) (2023-03-23T15:05:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。