論文の概要: Covert Communication Based on the Poisoning Attack in Federated Learning
- arxiv url: http://arxiv.org/abs/2306.01342v1
- Date: Fri, 2 Jun 2023 08:11:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-05 16:13:59.849196
- Title: Covert Communication Based on the Poisoning Attack in Federated Learning
- Title(参考訳): フェデレーション学習における中毒攻撃に基づく隠れコミュニケーション
- Authors: Junchuan Liang and Rong Wang
- Abstract要約: ディープラーニングでは、隠蔽通信を実現するために、モデルに情報を隠蔽するために多くの方法が開発されている。
そこで本研究では,フェデレート学習における毒殺攻撃に基づく包括的コミュニケーション手法を提案する。
提案手法は,2つのクライアント間での秘密メッセージ送信において100%の精度を実現し,ステルス性およびロバスト性を示した。
- 参考スコア(独自算出の注目度): 21.596265153097352
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Covert communication has become an important area of research in computer
security. It involves hiding specific information on a carrier for message
transmission and is often used to transmit private data, military secrets, and
even malware. In deep learning, many methods have been developed for hiding
information in models to achieve covert communication. However, these methods
are not applicable to federated learning, where model aggregation invalidates
the exact information embedded in the model by the client. To address this
problem, we propose a novel method for covert communication in federated
learning based on the poisoning attack. Our approach achieves 100% accuracy in
covert message transmission between two clients and is shown to be both
stealthy and robust through extensive experiments. However, existing defense
methods are limited in their effectiveness against our attack scheme,
highlighting the urgent need for new protection methods to be developed. Our
study emphasizes the necessity of research in covert communication and serves
as a foundation for future research in federated learning attacks and defenses.
- Abstract(参考訳): 隠密通信はコンピュータセキュリティにおける重要な研究分野となっている。
メッセージ送信のためにキャリアに特定の情報を隠すことを含み、プライベートデータ、軍事機密、さらにはマルウェアの送信によく使用される。
ディープラーニングでは、隠密なコミュニケーションを実現するために、モデルに情報を隠す多くの方法が開発されている。
しかし、これらの手法は、モデル集約がモデルに埋め込まれた正確な情報をクライアントが無効にするフェデレーション学習には適用できない。
そこで本研究では,共学学習における毒殺攻撃に基づく隠密コミュニケーションの新しい手法を提案する。
提案手法は,2つのクライアント間の隠密メッセージ伝送において100%の精度を実現し,広範囲な実験によりステルス性,堅牢性を示す。
しかし,既存の防御手法は攻撃方式に対する有効性に限界があり,新たな防御手法の開発が急務であることを示している。
本研究は,包括的コミュニケーションにおける研究の必要性を強調し,連合的学習攻撃・防衛研究の基盤となる。
関連論文リスト
- Generative AI-driven Cross-layer Covert Communication: Fundamentals, Framework and Case Study [62.5909195375364]
規制上の課題を軽減する効果的な戦略として、層間被覆通信機構が出現する。
生成人工知能(GenAI)を用いたエンドツーエンドのクロス層通信方式を提案する。
拡散強化学習を用いて, 層間安全な通信のクラウドエッジインターネットを構築するケーススタディを行った。
論文 参考訳(メタデータ) (2025-01-19T15:05:03Z) - Model Inversion Attacks: A Survey of Approaches and Countermeasures [59.986922963781]
近年、新しいタイプのプライバシ攻撃であるモデル反転攻撃(MIA)は、トレーニングのためのプライベートデータの機密性を抽出することを目的としている。
この重要性にもかかわらず、総合的な概要とMIAに関する深い洞察を提供する体系的な研究が欠如している。
本調査は、攻撃と防御の両方において、最新のMIA手法を要約することを目的としている。
論文 参考訳(メタデータ) (2024-11-15T08:09:28Z) - Defending against Data Poisoning Attacks in Federated Learning via User Elimination [0.0]
本稿では,フェデレーションモデルにおける敵ユーザの戦略的排除に焦点を当てた,新たなフレームワークを提案する。
我々は、ローカルトレーニングインスタンスが収集したメタデータと差分プライバシー技術を統合することにより、フェデレートアルゴリズムのアグリゲーションフェーズにおける異常を検出する。
提案手法の有効性を実証し,ユーザのプライバシとモデル性能を維持しながらデータ汚染のリスクを大幅に軽減する。
論文 参考訳(メタデータ) (2024-04-19T10:36:00Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Security and Privacy Issues and Solutions in Federated Learning for
Digital Healthcare [0.0]
フェデレートラーニング(Federated Learning)の幅広い攻撃面に基づいて,脆弱性,攻撃,防御を提示する。
我々は、より堅牢なFLに向けた新しい研究の方向性を期待する。
論文 参考訳(メタデータ) (2024-01-16T16:07:53Z) - The Model Inversion Eavesdropping Attack in Semantic Communication
Systems [19.385375706864334]
セマンティック通信システムにおけるプライバシリークのリスクを明らかにするために, モデル逆盗聴攻撃(MIEA)を導入する。
MIEAは、ホワイトボックスとブラックボックスの両方の設定が考慮されている生のメッセージを再構築する。
ランダムな置換と置換に基づく防衛手法を提案し,MIEAに対する防御を行う。
論文 参考訳(メタデータ) (2023-08-08T14:50:05Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Network-Level Adversaries in Federated Learning [21.222645649379672]
ネットワークレベルの敵がフェデレーション学習モデルの訓練に与える影響について検討する。
攻撃者は、慎重に選択されたクライアントからネットワークトラフィックを落とすことで、ターゲット個体数のモデル精度を著しく低下させることができることを示す。
我々は,攻撃の影響を緩和するサーバサイドディフェンスを開発し,攻撃対象の精度に肯定的に寄与する可能性のあるクライアントを特定し,アップサンプリングすることで,攻撃の影響を緩和する。
論文 参考訳(メタデータ) (2022-08-27T02:42:04Z) - Homomorphic Encryption and Federated Learning based Privacy-Preserving
CNN Training: COVID-19 Detection Use-Case [0.41998444721319217]
本稿では、同相暗号を用いた医療データのためのプライバシー保護フェデレーション学習アルゴリズムを提案する。
提案アルゴリズムはセキュアなマルチパーティ計算プロトコルを用いて,ディープラーニングモデルを敵から保護する。
論文 参考訳(メタデータ) (2022-04-16T08:38:35Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z) - Detecting Cross-Modal Inconsistency to Defend Against Neural Fake News [57.9843300852526]
我々は、画像やキャプションを含む機械生成ニュースに対して、より現実的で挑戦的な対策を導入する。
敵が悪用できる可能性のある弱点を特定するために、4つの異なる種類の生成された記事からなるNeuralNewsデータセットを作成します。
ユーザ実験から得られた貴重な知見に加えて,視覚的意味的不整合の検出にもとづく比較的効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-16T14:13:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。