論文の概要: RobQFL: Robust Quantum Federated Learning in Adversarial Environment
- arxiv url: http://arxiv.org/abs/2509.04914v1
- Date: Fri, 05 Sep 2025 08:28:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-08 14:27:25.531334
- Title: RobQFL: Robust Quantum Federated Learning in Adversarial Environment
- Title(参考訳): RobQFL: 敵対的環境下でのロバストな量子フェデレーション学習
- Authors: Walid El Maouaki, Nouhaila Innan, Alberto Marchisio, Taoufik Said, Muhammad Shafique, Mohamed Bennai,
- Abstract要約: 本稿では,RobQFL(RobQFL)を提案する。
RobQFLは、クライアントカバレッジ、摂動スケジューリング、最適化といった調整可能な軸を公開する。
MNISTとFashion-MNIST、ID、および非IID条件による15サイクルのシミュレーションでは、20-50%のクライアントのトレーニングによって、$varepsilon leq 0.1$の精度が向上する。
$geq$75%のカバレッジでは、適度な$varepsilon$-mixが最適だが、高額な$varepsilon$-mixは100にしかならない。
- 参考スコア(独自算出の注目度): 2.048164304914359
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Quantum Federated Learning (QFL) merges privacy-preserving federation with quantum computing gains, yet its resilience to adversarial noise is unknown. We first show that QFL is as fragile as centralized quantum learning. We propose Robust Quantum Federated Learning (RobQFL), embedding adversarial training directly into the federated loop. RobQFL exposes tunable axes: client coverage $\gamma$ (0-100\%), perturbation scheduling (fixed-$\varepsilon$ vs $\varepsilon$-mixes), and optimization (fine-tune vs scratch), and distils the resulting $\gamma \times \varepsilon$ surface into two metrics: Accuracy-Robustness Area and Robustness Volume. On 15-client simulations with MNIST and Fashion-MNIST, IID and Non-IID conditions, training only 20-50\% clients adversarially boosts $\varepsilon \leq 0.1$ accuracy $\sim$15 pp at $< 2$ pp clean-accuracy cost; fine-tuning adds 3-5 pp. With $\geq$75\% coverage, a moderate $\varepsilon$-mix is optimal, while high-$\varepsilon$ schedules help only at 100\% coverage. Label-sorted non-IID splits halve robustness, underscoring data heterogeneity as a dominant risk.
- Abstract(参考訳): 量子フェデレーション学習(QFL)は、プライバシ保護フェデレーションと量子コンピューティングゲインを融合するが、敵のノイズに対するレジリエンスは不明である。
最初に、QFLは集中型量子学習と同じくらい脆弱であることを示す。
本稿では,RobQFL(RobQFL)を提案する。
クライアントカバレッジ $\gamma$ (0-100\%)、摂動スケジューリング (fixed-$\varepsilon$ vs $\varepsilon$-mixes)、最適化 (fine-tune vs scratch)、結果の $\gamma \times \varepsilon$ surface を2つのメトリクスに分解する。
MNISTとFashion-MNIST、ID、および非IID条件による15サイクルのシミュレーションでは、20~50\%のクライアントが逆さまに$\varepsilon \leq 0.1$ accuracy $\sim$15 pp at $<2$ pp クリーン精度コストで$\sim$15 pp, fine-tuningに3~5 pp が加算される。
$\geq$75\%のカバレッジでは、適度な$\varepsilon$-mixが最適であり、高額な$\varepsilon$-mixは100\%のカバレッジでしか役に立たない。
ラベルにソートされた非IIDは、半分の頑丈さを分割し、データ不均一性を支配的なリスクとして強調する。
関連論文リスト
- Almost Minimax Optimal Best Arm Identification in Piecewise Stationary Linear Bandits [55.957560311008926]
そこで本研究では,各文脈の平均値によって腕の質を計測するPSLBモデルを提案する。
PS$varepsilon$BAI$+$は、$varepsilon$-optimal armを、確率$ge 1-delta$と最小限のサンプルで識別することが保証される。
論文 参考訳(メタデータ) (2024-10-10T06:15:42Z) - Federated Frank-Wolfe Algorithm [7.124736158080938]
制約付き機械学習問題に対するFedFW(Federated FrankWolfe Algorithm)を提案する。
FedFWは、データのプライバシ、イット当たりのコストの低減、疎通信、イテレーションを備えている。
We show that FedFW finds a solution within $O(varepsilon-3)$ in the convex set。
論文 参考訳(メタデータ) (2024-08-19T15:31:06Z) - RAMP: Boosting Adversarial Robustness Against Multiple $l_p$ Perturbations for Universal Robustness [4.188296977882316]
我々は、複数の$l_p$摂動に対するロバスト性を高めるための新しいトレーニングフレームワーク textbfRAMP を提案する。
スクラッチからトレーニングするために、 textbfRAMP は44.6%のユニオン精度と、CIFAR-10 の AutoAttack に対して ResNet-18 で 811.2% のクリーン精度を達成している。
論文 参考訳(メタデータ) (2024-02-09T23:29:54Z) - S-BDT: Distributed Differentially Private Boosted Decision Trees [1.4785572573908556]
S-BDT: a novel $(varepsilon,delta)$-differentially private distributed gradient boosted decision tree (GBDT) learner。
S-BDTは、非球面多変量ガウス雑音に依存することにより、より少ないノイズを使用する。
GBDTが異なるサブポピュレーションから派生したデータのストリームを学習している状況において、S-BDTはエプシロンの保存をさらに改善することを示す。
論文 参考訳(メタデータ) (2023-09-21T13:09:10Z) - Near Sample-Optimal Reduction-based Policy Learning for Average Reward
MDP [58.13930707612128]
この研究は、平均報酬マルコフ決定過程(AMDP)における$varepsilon$-Optimal Policyを得る際のサンプルの複雑さを考察する。
我々は、状態-作用対当たりの$widetilde O(H varepsilon-3 ln frac1delta)$サンプルを証明し、$H := sp(h*)$は任意の最適ポリシーのバイアスのスパンであり、$varepsilon$は精度、$delta$は失敗確率である。
論文 参考訳(メタデータ) (2022-12-01T15:57:58Z) - Improved techniques for deterministic l2 robustness [63.34032156196848]
畳み込みニューラルネットワーク(CNN)を$l_2$ノルムの下で厳密な1-Lipschitz制約で訓練することは、対向的堅牢性、解釈可能な勾配、安定した訓練に有用である。
我々は,最後の線形層を1重層に置き換えることで,1-Lipschitz CNNのロバスト性を証明する手法を提案する。
我々は,CIFAR-10およびCIFAR-100における標準および証明可能な堅牢な精度の最先端化を図る。
論文 参考訳(メタデータ) (2022-11-15T19:10:12Z) - Distributed DP-Helmet: Scalable Differentially Private Non-interactive Averaging of Single Layers [1.1111555270277715]
本研究では,分散DP-Helmetというフレームワークを用いて,差分プライベートな非対話型分散学習アルゴリズムを提案する。
我々は,SVMとSoftmax層(Softmax-SLP)のブラインド平均化が,強力なユーティリティプライバシトレードオフをもたらすことを示す実験的な証拠を提供する。
論文 参考訳(メタデータ) (2022-11-03T17:16:20Z) - Differentially Private Deep Learning with ModelMix [14.445182641912014]
そこで本研究では,中間モデル状態のランダムアグリゲーションを行う, Em ModelMix と呼ばれる汎用最適化フレームワークを提案する。
トレーニング軌跡のエントロピーを利用した複合プライバシー分析を強化する。
本研究は,勾配クリッピングの効果に関する公式な研究である。
論文 参考訳(メタデータ) (2022-10-07T22:59:00Z) - Minimax-Optimal Multi-Agent RL in Zero-Sum Markov Games With a
Generative Model [50.38446482252857]
2人プレイのゼロサムマルコフゲームは多エージェント強化学習においておそらく最も基本的な設定である。
我々は,$$ widetildeObiggを用いて,$varepsilon$-approximate Markov NEポリシーを学習する学習アルゴリズムを開発した。
我々は、分散型量の役割を明確にするFTRLに対する洗練された後悔境界を導出する。
論文 参考訳(メタデータ) (2022-08-22T17:24:55Z) - Quantum Differentially Private Sparse Regression Learning [132.1981461292324]
我々は、スパース回帰問題を解くために、効率的な量子微分プライベート(QDP)ラッソ推定器を考案する。
最後に、QDP Lasso はプライバシー保証付きで $tildeO(N-2/3)$ に近い最適ユーティリティを実現していることを示す。
論文 参考訳(メタデータ) (2020-07-23T10:50:42Z) - Model-Free Reinforcement Learning: from Clipped Pseudo-Regret to Sample
Complexity [59.34067736545355]
S$状態、$A$アクション、割引係数$gamma in (0,1)$、近似しきい値$epsilon > 0$の MDP が与えられた場合、$epsilon$-Optimal Policy を学ぶためのモデルなしアルゴリズムを提供する。
十分小さな$epsilon$の場合、サンプルの複雑さで改良されたアルゴリズムを示す。
論文 参考訳(メタデータ) (2020-06-06T13:34:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。