論文の概要: QFAL: Quantum Federated Adversarial Learning
- arxiv url: http://arxiv.org/abs/2502.21171v1
- Date: Fri, 28 Feb 2025 15:54:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-03 13:43:06.788129
- Title: QFAL: Quantum Federated Adversarial Learning
- Title(参考訳): QFAL: 量子Federated Adversarial Learning
- Authors: Walid El Maouaki, Nouhaila Innan, Alberto Marchisio, Taoufik Said, Mohamed Bennai, Muhammad Shafique,
- Abstract要約: 量子フェデレーション学習(QFL)は、フェデレーションシステムと量子ニューラルネットワーク(QNN)の計算ポテンシャルを融合させる。
この研究は、QFLへの対人訓練の統合の先駆者であり、堅牢なフレームワーク、量子連合対人学習(QFAL)を提案している。
クライアント数 (5, 10, 15), 対人訓練カバレッジ (0-100%), 対人攻撃摂動強度 (epsilon = 0.01-0.5) の3つの重要な要因間の相互作用を評価する。
クライアント数と敵のカバレッジを慎重に選択することで、QFLにおける敵の脆弱性を軽減できると結論付けている。
- 参考スコア(独自算出の注目度): 3.7329133349509926
- License:
- Abstract: Quantum federated learning (QFL) merges the privacy advantages of federated systems with the computational potential of quantum neural networks (QNNs), yet its vulnerability to adversarial attacks remains poorly understood. This work pioneers the integration of adversarial training into QFL, proposing a robust framework, quantum federated adversarial learning (QFAL), where clients collaboratively defend against perturbations by combining local adversarial example generation with federated averaging (FedAvg). We systematically evaluate the interplay between three critical factors: client count (5, 10, 15), adversarial training coverage (0-100%), and adversarial attack perturbation strength (epsilon = 0.01-0.5), using the MNIST dataset. Our experimental results show that while fewer clients often yield higher clean-data accuracy, larger federations can more effectively balance accuracy and robustness when partially adversarially trained. Notably, even limited adversarial coverage (e.g., 20%-50%) can significantly improve resilience to moderate perturbations, though at the cost of reduced baseline performance. Conversely, full adversarial training (100%) may regain high clean accuracy but is vulnerable under stronger attacks. These findings underscore an inherent trade-off between robust and standard objectives, which is further complicated by quantum-specific factors. We conclude that a carefully chosen combination of client count and adversarial coverage is critical for mitigating adversarial vulnerabilities in QFL. Moreover, we highlight opportunities for future research, including adaptive adversarial training schedules, more diverse quantum encoding schemes, and personalized defense strategies to further enhance the robustness-accuracy trade-off in real-world quantum federated environments.
- Abstract(参考訳): 量子フェデレーション学習(QFL)は、フェデレーションされたシステムのプライバシー上の利点と量子ニューラルネットワーク(QNN)の計算可能性とを融合するが、敵攻撃に対するその脆弱性は理解されていない。
この研究は、QFLへの対人訓練の統合の先駆者であり、堅牢なフレームワークである量子連合対人学習(QFAL)を提案し、クライアントは、局所対人例生成とフェデレーション平均化(FedAvg)を組み合わせることで、摂動に対して協調的に防御する。
MNISTデータセットを用いて,クライアント数 (5, 10, 15), 対人訓練カバレッジ (0-100%), 対人攻撃摂動強度 (epsilon = 0.01-0.5) の3つの重要な要因間の相互作用を系統的に評価した。
実験の結果, クライアント数が少なく, クリーンデータ精度が高い場合が多いが, より大きなフェデレーションは, 部分的に対向的に訓練した場合の精度と堅牢性をより効果的にバランスできることがわかった。
特に、制限された敵のカバレッジ(例:20%-50%)でさえ、ベースライン性能の低下を犠牲にしながらも、適度な摂動に対するレジリエンスを著しく向上させることができる。
逆に、完全な敵の訓練(100%)は、高い清潔さを取り戻すが、強い攻撃下では脆弱である。
これらの発見は、ロバスト目標と標準目標との本質的にのトレードオフを示しており、量子固有因子によってさらに複雑である。
クライアント数と敵のカバレッジを慎重に選択することで、QFLにおける敵の脆弱性を軽減できると結論付けている。
さらに,適応的対人訓練スケジュール,より多様な量子符号化方式,および実世界の量子連合環境におけるロバストネス・正確性トレードオフをさらに強化するためのパーソナライズされた防衛戦略など,将来の研究の機会を強調した。
関連論文リスト
- Fed-Credit: Robust Federated Learning with Credibility Management [18.349127735378048]
Federated Learning(FL)は、分散デバイスやデータソースのモデルトレーニングを可能にする、新興の機械学習アプローチである。
我々は、Fed-Creditと呼ばれる信頼性管理手法に基づく堅牢なFLアプローチを提案する。
その結果、比較的低い計算複雑性を維持しながら、敵攻撃に対する精度とレジリエンスが向上した。
論文 参考訳(メタデータ) (2024-05-20T03:35:13Z) - Improving the Robustness of Quantized Deep Neural Networks to White-Box
Attacks using Stochastic Quantization and Information-Theoretic Ensemble
Training [1.6098666134798774]
ディープニューラルネットワーク(DNN)を使用する現実世界のほとんどのアプリケーションは、計算ニーズを減らすためにそれらを低精度で量子化する。
ホワイトボックス攻撃に対する量子化DNNのロバスト性を改善する手法を提案する。
論文 参考訳(メタデータ) (2023-11-30T17:15:58Z) - Doubly Robust Instance-Reweighted Adversarial Training [107.40683655362285]
本稿では,2重のインスタンス再重み付き対向フレームワークを提案する。
KL偏差正規化損失関数の最適化により重みを求める。
提案手法は, 平均ロバスト性能において, 最先端のベースライン法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2023-08-01T06:16:18Z) - G$^2$uardFL: Safeguarding Federated Learning Against Backdoor Attacks
through Attributed Client Graph Clustering [116.4277292854053]
Federated Learning (FL)は、データ共有なしで協調的なモデルトレーニングを提供する。
FLはバックドア攻撃に弱いため、有害なモデル重みがシステムの整合性を損なう。
本稿では、悪意のあるクライアントの識別を属性グラフクラスタリング問題として再解釈する保護フレームワークであるG$2$uardFLを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:15:04Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - Enhancing Quantum Adversarial Robustness by Randomized Encodings [10.059889429655582]
本稿では,正規データサンプルをランダムに符号化することにより,量子学習システムを敵攻撃から保護する手法を提案する。
グローバルおよび局所ランダムなユニタリエンコーダの両方が指数関数的に勾配を消失させることを示す。
ランダムなブラックボックス量子誤り訂正エンコーダは、量子分類器を局所的な逆雑音から保護できることを示す。
論文 参考訳(メタデータ) (2022-12-05T19:00:08Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Characterizing Internal Evasion Attacks in Federated Learning [12.873984200814533]
フェデレートされた学習は、クライアントが機械学習モデルを共同でトレーニングすることを可能にする。
クライアントのモデルは、トレーニングとテストフェーズにおける攻撃に対して脆弱である。
本稿では,「内部回避攻撃」を行う敵クライアントの問題に対処する。
論文 参考訳(メタデータ) (2022-09-17T21:46:38Z) - Enhancing Adversarial Training with Feature Separability [52.39305978984573]
本稿では,特徴分離性を備えた対人訓練(ATFS)により,クラス内特徴の類似性を向上し,クラス間特徴分散を増大させることができる,新たな対人訓練グラフ(ATG)を提案する。
包括的な実験を通じて、提案したATFSフレームワークがクリーンかつロバストなパフォーマンスを著しく改善することを示した。
論文 参考訳(メタデータ) (2022-05-02T04:04:23Z) - Federated Learning with Unreliable Clients: Performance Analysis and
Mechanism Design [76.29738151117583]
Federated Learning(FL)は、分散クライアント間で効果的な機械学習モデルをトレーニングするための有望なツールとなっている。
しかし、低品質のモデルは信頼性の低いクライアントによってアグリゲータサーバにアップロードすることができ、劣化やトレーニングの崩壊につながる。
クライアントの信頼できない振る舞いをモデル化し、このようなセキュリティリスクを軽減するための防御メカニズムを提案する。
論文 参考訳(メタデータ) (2021-05-10T08:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。