論文の概要: Repurposing Backdoors for Good: Ephemeral Intrinsic Proofs for Verifiable Aggregation in Cross-silo Federated Learning
- arxiv url: http://arxiv.org/abs/2603.10692v1
- Date: Wed, 11 Mar 2026 12:04:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 16:22:32.931161
- Title: Repurposing Backdoors for Good: Ephemeral Intrinsic Proofs for Verifiable Aggregation in Cross-silo Federated Learning
- Title(参考訳): 良いもののためのバックドアの再利用:クロスサイロ・フェデレーション学習における検証可能な集約のための短命な内在的証明
- Authors: Xian Qin, Xue Yang, Xiaohu Tang,
- Abstract要約: 暗号証明からtextitIntrinsic Proofs へ移行する軽量アーキテクチャを提案する。
モデルパラメータに直接検証信号を埋め込むために、カタストロフィックフォーッティングを利用する。
我々の手法は、暗号ベースラインと比較して、ResNet-18で1000ドル以上のスピードアップを実現し、大規模モデルに効果的にスケールする。
- 参考スコア(独自算出の注目度): 30.440611659881494
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While Secure Aggregation (SA) protects update confidentiality in Cross-silo Federated Learning, it fails to guarantee aggregation integrity, allowing malicious servers to silently omit or tamper with updates. Existing verifiable aggregation schemes rely on heavyweight cryptography (e.g., ZKPs, HE), incurring computational costs that scale poorly with model size. In this paper, we propose a lightweight architecture that shifts from extrinsic cryptographic proofs to \textit{Intrinsic Proofs}. We repurpose backdoor injection to embed verification signals directly into model parameters. By harnessing Catastrophic Forgetting, these signals are robust for immediate verification yet ephemeral, naturally decaying to preserve final model utility. We design a randomized, single-verifier auditing framework compatible with SA, ensuring client anonymity and preventing signal collision without trusted third parties. Experiments on SVHN, CIFAR-10, and CIFAR-100 demonstrate high detection probabilities against malicious servers. Notably, our approach achieves over $1000\times$ speedup on ResNet-18 compared to cryptographic baselines, effectively scaling to large models.
- Abstract(参考訳): セキュアアグリゲーション(SA)は、クロスサイロフェデレーションラーニングにおけるアップデートの機密性を保護するが、アグリゲーションの整合性を保証することができず、悪意のあるサーバが無音に省略したり、更新を妨害したりできる。
既存の検証可能なアグリゲーションスキームは、重い暗号(例えばZKP、HE)に依存しており、モデルサイズに劣る計算コストを発生させる。
本稿では,外部暗号証明から \textit{Intrinsic Proofs} に移行する軽量アーキテクチャを提案する。
モデルパラメータに直接検証信号を埋め込むためにバックドアインジェクションを再利用する。
カタストロフィックフォーミングを利用することにより、これらの信号は即時検証と短命化のために堅牢であり、最終的なモデルユーティリティを維持するために自然に崩壊する。
我々は、SAと互換性のあるランダム化シングル検証監査フレームワークを設計し、クライアントの匿名性を保証し、信頼できる第三者なしで信号衝突を防止する。
SVHN、CIFAR-10、CIFAR-100の実験では、悪意のあるサーバに対する高い検出確率が示されている。
特に、我々の手法は、暗号ベースラインに比べて1000ドル以上のResNet-18の高速化を実現し、大規模モデルに効果的にスケールする。
関連論文リスト
- Recursive language models for jailbreak detection: a procedural defense for tool-augmented agents [0.0]
Recursive Language Models (RLM) に基づくエンドツーエンドのジェイルブレイク検出フレームワーク RLM-JB を提案する。
RLM-JBは、検出をワンショット分類ではなく手順として扱う。
AutoDANスタイルの逆入力では、RLM-JBは3つのLLMバックエンド間で高い検出効率を実現する。
論文 参考訳(メタデータ) (2026-02-18T15:07:09Z) - ZORRO: Zero-Knowledge Robustness and Privacy for Split Learning (Full Version) [58.595691399741646]
Split Learning(SL)は、リソース制約のあるクライアントがディープニューラルネットワーク(DNN)を協調的にトレーニングすることを可能にする分散学習アプローチである。
このセットアップにより、SLはデータを共有せずにサーバの能力を活用することができ、機密データを扱うリソース制約のある環境で非常に効果的になる。
我々は、プライベートで検証可能な、堅牢なSL防御スキームであるZORROを提示する。
論文 参考訳(メタデータ) (2025-09-11T18:44:09Z) - Verifiability and Privacy in Federated Learning through Context-Hiding Multi-Key Homomorphic Authenticators [3.8529853362793194]
フェデレーテッド・ラーニングは、当初から急速に発展し、現在多くの研究機関、いくつかのフレームワークを持ち、様々な商用製品で販売されている。
悪意のあるクライアントの場合、堅牢性を提供するアルゴリズムはたくさんあります。
本稿では,クライアントが更新の秘密性を損なうことなく,アグリゲータの正しさを検証できる検証可能なフェデレーション学習プロトコルを提案する。
論文 参考訳(メタデータ) (2025-09-05T14:57:18Z) - EmInspector: Combating Backdoor Attacks in Federated Self-Supervised Learning Through Embedding Inspection [53.25863925815954]
フェデレートされた自己教師付き学習(FSSL)は、クライアントの膨大な量の未ラベルデータの利用を可能にする、有望なパラダイムとして登場した。
FSSLはアドバンテージを提供するが、バックドア攻撃に対する感受性は調査されていない。
ローカルモデルの埋め込み空間を検査し,悪意のあるクライアントを検知する埋め込み検査器(EmInspector)を提案する。
論文 参考訳(メタデータ) (2024-05-21T06:14:49Z) - Lazy Layers to Make Fine-Tuned Diffusion Models More Traceable [70.77600345240867]
新たな任意の任意配置(AIAO)戦略は、微調整による除去に耐性を持たせる。
拡散モデルの入力/出力空間のバックドアを設計する既存の手法とは異なり,本手法では,サンプルサブパスの特徴空間にバックドアを埋め込む方法を提案する。
MS-COCO,AFHQ,LSUN,CUB-200,DreamBoothの各データセットに関する実証研究により,AIAOの堅牢性が確認された。
論文 参考訳(メタデータ) (2024-05-01T12:03:39Z) - G$^2$uardFL: Safeguarding Federated Learning Against Backdoor Attacks
through Attributed Client Graph Clustering [116.4277292854053]
Federated Learning (FL)は、データ共有なしで協調的なモデルトレーニングを提供する。
FLはバックドア攻撃に弱いため、有害なモデル重みがシステムの整合性を損なう。
本稿では、悪意のあるクライアントの識別を属性グラフクラスタリング問題として再解釈する保護フレームワークであるG$2$uardFLを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:15:04Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Security and Privacy Enhanced Gait Authentication with Random
Representation Learning and Digital Lockers [3.3549957463189095]
慣性センサーによってキャプチャされた歩行データは、ユーザ認証において有望な結果を示している。
既存のほとんどのアプローチでは、登録された歩行パターンをパターンと一致させるために安全に保存しているため、重要なセキュリティとプライバシの問題が発生している。
本稿では,歩行データからユーザ認証のためのランダムキーを生成するゲイト暗号システムを提案する。
論文 参考訳(メタデータ) (2021-08-05T06:34:42Z) - CRFL: Certifiably Robust Federated Learning against Backdoor Attacks [59.61565692464579]
本稿では,第1の汎用フレームワークであるCertifiably Robust Federated Learning (CRFL) を用いて,バックドアに対する堅牢なFLモデルをトレーニングする。
提案手法は, モデルパラメータのクリッピングと平滑化を利用して大域的モデル平滑化を制御する。
論文 参考訳(メタデータ) (2021-06-15T16:50:54Z) - SAFELearning: Enable Backdoor Detectability In Federated Learning With
Secure Aggregation [6.391150830543613]
本稿では,セキュアアグリゲーションのためのバックドア検出を支援するSAFELearningを提案する。
我々はこのことを2つの新しいプリミティブ、Epoblivious random grouping (ORG) と Emphpartial parameters disclosure (PPD) を通じて実現している。
論文 参考訳(メタデータ) (2021-02-04T04:07:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。