論文の概要: Differentially Private and Federated Structure Learning in Bayesian Networks
- arxiv url: http://arxiv.org/abs/2512.01708v1
- Date: Mon, 01 Dec 2025 14:15:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.888752
- Title: Differentially Private and Federated Structure Learning in Bayesian Networks
- Title(参考訳): ベイズネットワークにおける微分プライベート・フェデレーション構造学習
- Authors: Ghita Fassy El Fehri, Aurélien Bellet, Philippe Bastien,
- Abstract要約: Fed-Sparse-BNSLは線形ガウスベイズネットワーク構造を学習するための新しい手法である。
差分プライバシーとgreedyアップデートを組み合わせることで、Fed-Sparse-BNSLは、通信コストを低くしながら、効率的にプライバシ予算を使用する。
合成および実データセットの実験は、Fed-Sparse-BNSLが非プライベートベースラインに近いユーティリティを実現することを示す。
- 参考スコア(独自算出の注目度): 13.497512168397286
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning the structure of a Bayesian network from decentralized data poses two major challenges: (i) ensuring rigorous privacy guarantees for participants, and (ii) avoiding communication costs that scale poorly with dimensionality. In this work, we introduce Fed-Sparse-BNSL, a novel federated method for learning linear Gaussian Bayesian network structures that addresses both challenges. By combining differential privacy with greedy updates that target only a few relevant edges per participant, Fed-Sparse-BNSL efficiently uses the privacy budget while keeping communication costs low. Our careful algorithmic design preserves model identifiability and enables accurate structure estimation. Experiments on synthetic and real datasets demonstrate that Fed-Sparse-BNSL achieves utility close to non-private baselines while offering substantially stronger privacy and communication efficiency.
- Abstract(参考訳): 分散データからベイズネットワークの構造を学ぶことは、2つの大きな課題をもたらす。
一 参加者の厳格なプライバシー保証を確保すること。
(二)次元性に乏しい通信コストを避けること。
本稿では,両課題に対処する線形ガウスベイズネットワーク構造を学習するための新しいフェデレーション手法であるFed-Sparse-BNSLを紹介する。
Fed-Sparse-BNSLは、差分プライバシと、参加者1人当たりのいくつかのエッジのみをターゲットにしたgreedyアップデートを組み合わせることで、通信コストを低く保ちながら、効率よくプライバシ予算を利用する。
注意深いアルゴリズム設計はモデルの識別性を保ち、正確な構造推定を可能にする。
合成データセットと実データセットの実験は、Fed-Sparse-BNSLが非プライベートベースラインに近いユーティリティを実現し、より強力なプライバシーと通信効率を提供することを示した。
関連論文リスト
- Subgraph Federated Learning via Spectral Methods [52.40322201034717]
FedLapは、プライバシとスケーラビリティを確保しながら、ノード間の依存関係をキャプチャする新しいフレームワークである。
我々は、FedLapのプライバシを正式に分析し、プライバシを保存することを実証する。
論文 参考訳(メタデータ) (2025-10-29T16:22:32Z) - Mitigating Privacy-Utility Trade-off in Decentralized Federated Learning via $f$-Differential Privacy [27.280907787306642]
Decentralized Federated Learning (FL)により、ローカルユーザはデータを中央サーバと共有することなく、協力できる。
プライベートFLアルゴリズムのプライバシー予算を正確に定量化することは、複雑なアルゴリズムコンポーネントの共存によって困難である。
本稿では、$f$-differential privacy(f$-DP)フレームワーク内の2つの分散FLアルゴリズムのプライバシ会計について述べる。
論文 参考訳(メタデータ) (2025-10-22T18:01:08Z) - FedGES: A Federated Learning Approach for BN Structure Learning [0.7182449176083623]
本研究は,分散環境におけるBN構造学習に適した新しいフェデレーション学習手法であるフェデレーションGES(FedGES)を紹介する。
FedGESは、パラメータやデータではなく、進化するネットワーク構造のみを交換することによって、プライバシとセキュリティの問題に固有の対処を行う。
論文 参考訳(メタデータ) (2025-02-03T17:16:02Z) - FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - Privacy-preserving Federated Primal-dual Learning for Non-convex and Non-smooth Problems with Model Sparsification [51.04894019092156]
FL(Federated Learning)は,FLオーケストレーション(PS)の下でクライアント上でモデルをトレーニングする,急速に成長する領域として認識されている。
本稿では,非滑らかなFL問題に対して,新しい一次分離アルゴリズムを提案し,保証する。
その独特な洞察力のある性質とその分析も提示される。
論文 参考訳(メタデータ) (2023-10-30T14:15:47Z) - Federated Deep Learning with Bayesian Privacy [28.99404058773532]
フェデレートラーニング(FL)は、ユーザ間でプライベートデータを共有せずにモデルを協調的に学習することで、データのプライバシを保護することを目的としている。
ホモモルフィック暗号化(HE)ベースの手法は、セキュアなプライバシ保護を提供するが、非常に高い計算と通信のオーバーヘッドに悩まされる。
差分プライバシ(DP)を用いたディープラーニングは,複雑な管理コストで実践的な学習アルゴリズムとして実装された。
論文 参考訳(メタデータ) (2021-09-27T12:48:40Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Communication-Computation Efficient Secure Aggregation for Federated
Learning [23.924656276456503]
フェデレーションラーニングは、ノードがデータを共有せずに、複数のノードに分散したデータを使用してニューラルネットワークを訓練する方法です。
セキュアアグリゲーションプリミティブに基づく最近のソリューションでは,プライバシ保護型のフェデレーション学習が可能だったが,通信/計算リソースが大幅に増加した。
通信・計算資源の量を大幅に削減する通信・計算効率のよいセキュアアグリゲーションを提案する。
論文 参考訳(メタデータ) (2020-12-10T03:17:50Z) - Graph-Homomorphic Perturbations for Private Decentralized Learning [64.26238893241322]
ローカルな見積もりの交換は、プライベートデータに基づくデータの推測を可能にする。
すべてのエージェントで独立して選択された摂動により、パフォーマンスが著しく低下する。
本稿では,特定のヌル空間条件に従って摂動を構成する代替スキームを提案する。
論文 参考訳(メタデータ) (2020-10-23T10:35:35Z) - Privacy-preserving Traffic Flow Prediction: A Federated Learning
Approach [61.64006416975458]
本稿では,フェデレート学習に基づくGated Recurrent Unit Neural Network Algorithm (FedGRU) というプライバシ保護機械学習手法を提案する。
FedGRUは、現在の集中学習方法と異なり、安全なパラメータアグリゲーション機構を通じて、普遍的な学習モデルを更新する。
FedGRUの予測精度は、先進的なディープラーニングモデルよりも90.96%高い。
論文 参考訳(メタデータ) (2020-03-19T13:07:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。