論文の概要: Hi-SAFE: Hierarchical Secure Aggregation for Lightweight Federated Learning
- arxiv url: http://arxiv.org/abs/2511.18887v1
- Date: Mon, 24 Nov 2025 08:42:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:25.11388
- Title: Hi-SAFE: Hierarchical Secure Aggregation for Lightweight Federated Learning
- Title(参考訳): Hi-SAFE: 軽量フェデレーションラーニングのための階層型セキュアアグリゲーション
- Authors: Hyeong-Gun Joo, Songnam Hong, Seunghwan Lee, Dong-Joon Shin,
- Abstract要約: 署名に基づくフェデレート学習のための暗号的にセキュアな集約フレームワークであるHi-SAFEを提案する。
我々の中核的な貢献は、フェルマーのリトル・セオリームから派生したSIGNSGDMVの効率的な多数決の構築である。
さらに、一定の乗法深さと有界複雑性を保証する階層的な部分群戦略を導入する。
- 参考スコア(独自算出の注目度): 16.477223151835982
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Federated learning (FL) faces challenges in ensuring both privacy and communication efficiency, particularly in resource-constrained environments such as Internet of Things (IoT) and edge networks. While sign-based methods, such as sign stochastic gradient descent with majority voting (SIGNSGD-MV), offer substantial bandwidth savings, they remain vulnerable to inference attacks due to exposure of gradient signs. Existing secure aggregation techniques are either incompatible with sign-based methods or incur prohibitive overhead. To address these limitations, we propose Hi-SAFE, a lightweight and cryptographically secure aggregation framework for sign-based FL. Our core contribution is the construction of efficient majority vote polynomials for SIGNSGD-MV, derived from Fermat's Little Theorem. This formulation represents the majority vote as a low-degree polynomial over a finite field, enabling secure evaluation that hides intermediate values and reveals only the final result. We further introduce a hierarchical subgrouping strategy that ensures constant multiplicative depth and bounded per-user complexity, independent of the number of users n.
- Abstract(参考訳): フェデレーション学習(FL)は、特にIoT(Internet of Things)やエッジネットワークといったリソース制約のある環境で、プライバシと通信効率の両面での課題に直面している。
多数決(SIGNSGD-MV)を伴う手話確率勾配降下のような手話に基づく手法は、かなりの帯域幅の節約を提供するが、勾配標識の露出による推論攻撃には弱いままである。
既存のセキュアアグリゲーション技術は、手話ベースのメソッドと互換性がないか、あるいは禁止的なオーバーヘッドがある。
これらの制約に対処するため,署名ベースのFLのための軽量かつ暗号的にセキュアな集約フレームワークであるHi-SAFEを提案する。
我々の中心となる貢献は、フェルマーのLittle Theoremから派生したSIGNSGD-MVのための効率的な多数決多項式の構築である。
この定式化は、多数決を有限体上の低次多項式として表し、中間値を隠蔽し最終結果のみを明らかにする安全な評価を可能にする。
さらに、ユーザ数 n によらず、一定の乗法深さとユーザ単位の複雑さの有界化を保証する階層的な部分群戦略を導入する。
関連論文リスト
- Subgraph Federated Learning via Spectral Methods [52.40322201034717]
FedLapは、プライバシとスケーラビリティを確保しながら、ノード間の依存関係をキャプチャする新しいフレームワークである。
我々は、FedLapのプライバシを正式に分析し、プライバシを保存することを実証する。
論文 参考訳(メタデータ) (2025-10-29T16:22:32Z) - Constrained Adversarial Perturbation [16.05659740749269]
UAP(Universal Adversarial Perturbations)は、ストレステストモデルロバストネスとスケーラブルな対向トレーニングの両方のための強力なツールとして登場した。
本稿では、勾配に基づく交互最適化手法を用いて、この問題を解決する効率的なアルゴリズムである Constrained Adversarial Perturbation (CAP) を提案する。
論文 参考訳(メタデータ) (2025-10-17T14:44:20Z) - Analytic Rényi Entropy Bounds for Device-Independent Cryptography [0.0]
デバイス非依存(DI)暗号はセキュリティの最高レベルを表している。
本稿では,CHSHゲームに基づくプロトコルに対して,より厳密な有限サイズセキュリティ証明を得るための簡単な方法を提案する。
論文 参考訳(メタデータ) (2025-07-10T01:15:28Z) - Stratify: Rethinking Federated Learning for Non-IID Data through Balanced Sampling [9.774529150331297]
Stratifyは、トレーニング全体を通してクラスとフィーチャーの配布を体系的に管理するために設計された、新しいFLフレームワークである。
従来の階層化サンプリングに着想を得て,SLS(Stratified Label Schedule)を用いてラベル間のバランスの取れた露出を確保する。
プライバシーを守るため,同型暗号化を利用したセキュアクライアント選択プロトコルを実装した。
論文 参考訳(メタデータ) (2025-04-18T04:44:41Z) - Perfect Gradient Inversion in Federated Learning: A New Paradigm from the Hidden Subset Sum Problem [21.546869377126125]
フェデレートラーニング(FL)は、複数の組織間で協調学習するための一般的なパラダイムとして登場した。
FLで共有される勾配情報を用いて入力再構成問題をHidden Subset Sum problemとして定式化する。
我々の分析は、なぜより大きなバッチサイズで経験的入力再構成攻撃が劣化したのかを洞察する。
論文 参考訳(メタデータ) (2024-09-21T23:01:33Z) - Exploiting Low-confidence Pseudo-labels for Source-free Object Detection [54.98300313452037]
Source-free Object Detection (SFOD) は、ラベル付きソースデータにアクセスすることなく、未ラベルのターゲットドメインにソーストレーニングされた検出器を適応することを目的としている。
現在のSFOD法は適応相におけるしきい値に基づく擬似ラベル手法を用いる。
疑似ラベルを最大限に活用するために,高信頼度と低信頼度しきい値を導入する手法を提案する。
論文 参考訳(メタデータ) (2023-10-19T12:59:55Z) - GIFD: A Generative Gradient Inversion Method with Feature Domain
Optimization [52.55628139825667]
Federated Learning(FL)は、クライアントのプライバシを保護するための有望な分散機械学習フレームワークとして登場した。
近年の研究では、事前学習された生成逆ネットワーク(GAN)を事前知識として活用することにより、攻撃者が共有勾配を逆転し、FLシステムに対する機密データを回復できることが示されている。
textbfGradient textbfInversion over textbfFeature textbfDomains (GIFD)を提案する。
論文 参考訳(メタデータ) (2023-08-09T04:34:21Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Generalizable Representation Learning for Mixture Domain Face
Anti-Spoofing [53.82826073959756]
ドメイン一般化(DG)に基づく対スプーフィングアプローチは、予期せぬシナリオの堅牢性のために注目を集めています。
ドメインダイナミック調整メタラーニング(D2AM)についてドメインラベルを使わずに提案する。
この制限を克服するため,ドメインダイナミック調整メタラーニング(D2AM)を提案する。
論文 参考訳(メタデータ) (2021-05-06T06:04:59Z) - Sharing classical secrets with continuous-variable entanglement:
Composable security and network coding advantage [0.913755431537592]
量子通信のためのポイント・ツー・ポイントプロトコルに対して,マルチパーティ・エンタングルド・リソースが真に有利であることを示す。
これは、量子通信のためのポイント・ツー・ポイントプロトコルよりも真に有利な、マルチパーティ・エンタングルド・リソースの最初の具体的な例である。
論文 参考訳(メタデータ) (2021-04-21T17:37:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。