論文の概要: FedOnco-Bench: A Reproducible Benchmark for Privacy-Aware Federated Tumor Segmentation with Synthetic CT Data
- arxiv url: http://arxiv.org/abs/2511.00795v1
- Date: Sun, 02 Nov 2025 04:17:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.936481
- Title: FedOnco-Bench: A Reproducible Benchmark for Privacy-Aware Federated Tumor Segmentation with Synthetic CT Data
- Title(参考訳): FedOnco-Bench: 合成CTデータを用いたプライバシを考慮したFederated tumor Segmentationのための再現可能なベンチマーク
- Authors: Viswa Chaitanya Marella, Suhasnadh Reddy Veluru, Sai Teja Erukude,
- Abstract要約: フェデレートラーニング(FL)は、複数の機関が、ソースに機密データを保持しながら、機械学習モデルを協調的にトレーニングすることを可能にする。
本報告では,腫瘍アノテーションを用いた合成腫瘍CTスキャンを用いて,プライバシを意識したFLの再現可能なベンチマークであるFedOnco-Benchを提案する。
FLメソッドのセグメンテーション性能とプライバシリークを評価する。FedAvg、FedProx、FedBN、FedAvgをDP-SGDで評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning (FL) allows multiple institutions to cooperatively train machine learning models while retaining sensitive data at the source, which has great utility in privacy-sensitive environments. However, FL systems remain vulnerable to membership-inference attacks and data heterogeneity. This paper presents FedOnco-Bench, a reproducible benchmark for privacy-aware FL using synthetic oncologic CT scans with tumor annotations. It evaluates segmentation performance and privacy leakage across FL methods: FedAvg, FedProx, FedBN, and FedAvg with DP-SGD. Results show a distinct trade-off between privacy and utility: FedAvg is high performance (Dice around 0.85) with more privacy leakage (attack AUC about 0.72), while DP-SGD provides a higher level of privacy (AUC around 0.25) at the cost of accuracy (Dice about 0.79). FedProx and FedBN offer balanced performance under heterogeneous data, especially with non-identical distributed client data. FedOnco-Bench serves as a standardized, open-source platform for benchmarking and developing privacy-preserving FL methods for medical image segmentation.
- Abstract(参考訳): フェデレートラーニング(FL)は、複数の機関が、プライバシに敏感なデータをソースに保持しながら、機械学習モデルを協調的にトレーニングすることを可能にする。
しかし、FLシステムはメンバーシップ推論攻撃やデータ不均一性に弱いままである。
本報告では,腫瘍アノテーションを用いた合成腫瘍CTスキャンを用いて,プライバシを意識したFLの再現可能なベンチマークであるFedOnco-Benchを提案する。
FLメソッドのセグメンテーション性能とプライバシリークを評価する。FedAvg、FedProx、FedBN、FedAvgをDP-SGDで評価する。
FedAvgは高いパフォーマンス(約0.85)で、より多くのプライバシーリーク(約0.72の攻撃)を持ち、DP-SGDは高いレベルのプライバシー(約0.25のAUC)を精度(約0.79の攻撃)で提供する。
FedProxとFedBNは、不均一なデータ、特に識別できない分散クライアントデータの下で、バランスの取れたパフォーマンスを提供する。
FedOnco-Benchは、医療画像セグメンテーションのためのプライバシー保護FLメソッドのベンチマークと開発のための標準化されたオープンソースプラットフォームとして機能する。
関連論文リスト
- Privacy Preserved Federated Learning with Attention-Based Aggregation for Biometric Recognition [0.0]
A3-FLフレームワークはFVC2004指紋データを用いて評価される。
A3-FLフレームワークの精度、収束速度、堅牢性は標準FL(FedAvg)や静的ベースラインよりも優れている。
論文 参考訳(メタデータ) (2025-10-01T16:58:59Z) - FedMentor: Domain-Aware Differential Privacy for Heterogeneous Federated LLMs in Mental Health [0.0]
FedMentorは、機密ドメインにおける大規模言語モデルのプライバシ保護適応のための微調整フレームワークである。
Low-Rank Adaptation (LoRA)とDomain-Aware Differential Privacy (DP)を統合して、パフォーマンスを維持しながらドメイン単位のプライバシ予算を満たす。
3つのメンタルヘルスデータセットの実験では、FedMentorはプライバシのない標準フェデレートラーニング(FL)よりも安全性を向上させる。
論文 参考訳(メタデータ) (2025-09-16T07:08:36Z) - On the MIA Vulnerability Gap Between Private GANs and Diffusion Models [51.53790101362898]
GAN(Generative Adversarial Networks)と拡散モデルが高品質な画像合成のための主要なアプローチとして登場している。
差分自己生成モデルが直面するプライバシーリスクの統一的および実証的分析について述べる。
論文 参考訳(メタデータ) (2025-09-03T14:18:22Z) - A Robust Pipeline for Differentially Private Federated Learning on Imbalanced Clinical Data using SMOTETomek and FedProx [0.0]
Federated Learning (FL)は、共同健康研究のための画期的なアプローチである。
FLは、差分プライバシー(DP)と組み合わせて正式なセキュリティ保証を提供する
プライバシーユーティリティフロンティアで最適な運用領域が特定された。
論文 参考訳(メタデータ) (2025-08-06T20:47:50Z) - FedEM: A Privacy-Preserving Framework for Concurrent Utility Preservation in Federated Learning [17.853502904387376]
Federated Learning (FL)は、分散クライアント間で、ローカルデータを共有せずにモデルの協調的なトレーニングを可能にし、分散システムにおけるプライバシの問題に対処する。
適応雑音注入による制御摂動を組み込んだ新しいアルゴリズムであるフェデレートエラー最小化(FedEM)を提案する。
ベンチマークデータセットの実験結果から、FedEMはプライバシのリスクを著しく低減し、モデルの正確性を保ち、プライバシ保護とユーティリティ保護の堅牢なバランスを達成している。
論文 参考訳(メタデータ) (2025-03-08T02:48:00Z) - Providing Differential Privacy for Federated Learning Over Wireless: A Cross-layer Framework [19.381425127772054]
Federated Learning(FL)は、エッジデバイスがローカルなトレーニングデータを維持することができる分散機械学習フレームワークである。
本稿では,分散化された動的電力制御により差分プライバシ(DP)を改善するOTA-FLの無線物理層(PHY)設計を提案する。
この適応は、異なる学習アルゴリズム間で設計の柔軟性と有効性を示しながら、プライバシに強く重点を置いています。
論文 参考訳(メタデータ) (2024-12-05T18:27:09Z) - Differentially Private Wireless Federated Learning Using Orthogonal
Sequences [56.52483669820023]
本稿では,FLORAS と呼ばれる AirComp 法を提案する。
FLORASはアイテムレベルとクライアントレベルの差分プライバシー保証の両方を提供する。
新たなFL収束バウンダリが導出され、プライバシー保証と組み合わせることで、達成された収束率と差分プライバシーレベルのスムーズなトレードオフが可能になる。
論文 参考訳(メタデータ) (2023-06-14T06:35:10Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - FedSkip: Combatting Statistical Heterogeneity with Federated Skip
Aggregation [95.85026305874824]
我々はFedSkipと呼ばれるデータ駆動型アプローチを導入し、フェデレーション平均化を定期的にスキップし、ローカルモデルをクロスデバイスに分散することで、クライアントの最適化を改善する。
我々は、FedSkipがはるかに高い精度、より良いアグリゲーション効率、競合する通信効率を達成することを示すために、さまざまなデータセットに関する広範な実験を行う。
論文 参考訳(メタデータ) (2022-12-14T13:57:01Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。