論文の概要: Privacy-Aware Federated nnU-Net for ECG Page Digitization
- arxiv url: http://arxiv.org/abs/2510.22387v1
- Date: Sat, 25 Oct 2025 18:10:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.120221
- Title: Privacy-Aware Federated nnU-Net for ECG Page Digitization
- Title(参考訳): ECGページディジタル化のためのプライバシ対応フェデレーションnU-Net
- Authors: Nader Nemati,
- Abstract要約: ディープニューラルネットワークは、ECGページイメージを分析可能な波形に変換することができるが、集中的なトレーニングはしばしば、施設間のプライバシやデプロイメントの制約と矛盾する。
クロスサイロ・フェデレーション・デジタイゼーション・フレームワークでは、画像を共有することなくフルモデルnnU-Netセグメンテーションバックボーンをトレーニングし、サイト間で更新を集約する。
このプロトコルは、FedAvg、FedProx、FedAdamの3つの標準的なサーバサイドアグリゲータを統合し、中央のユーザレベルのディファレンシャルプライバシとセキュアなアグリゲーションを結合して、ユーティリティを正式な保証と整合させる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep neural networks can convert ECG page images into analyzable waveforms, yet centralized training often conflicts with cross-institutional privacy and deployment constraints. A cross-silo federated digitization framework is presented that trains a full-model nnU-Net segmentation backbone without sharing images and aggregates updates across sites under realistic non-IID heterogeneity (layout, grid style, scanner profile, noise). The protocol integrates three standard server-side aggregators--FedAvg, FedProx, and FedAdam--and couples secure aggregation with central, user-level differential privacy to align utility with formal guarantees. Key features include: (i) end-to-end full-model training and synchronization across clients; (ii) secure aggregation so the server only observes a clipped, weighted sum once a participation threshold is met; (iii) central Gaussian DP with Renyi accounting applied post-aggregation for auditable user-level privacy; and (iv) a calibration-aware digitization pipeline comprising page normalization, trace segmentation, grid-leakage suppression, and vectorization to twelve-lead signals. Experiments on ECG pages rendered from PTB-XL show consistently faster convergence and higher late-round plateaus with adaptive server updates (FedAdam) relative to FedAvg and FedProx, while approaching centralized performance. The privacy mechanism maintains competitive accuracy while preventing exposure of raw images or per-client updates, yielding deployable, auditable guarantees suitable for multi-institution settings.
- Abstract(参考訳): ディープニューラルネットワークは、ECGページイメージを分析可能な波形に変換することができるが、集中的なトレーニングはしばしば、施設間のプライバシやデプロイメントの制約と矛盾する。
クロスサイロ・フェデレーション・デジタイゼーション・フレームワークでは、イメージを共有することなくフルモデルnnU-Netセグメンテーションバックボーンをトレーニングし、リアルな非IID不均一性(レイアウト、グリッドスタイル、スキャナプロファイル、ノイズ)下で更新を集約する。
このプロトコルは、FedAvg、FedProx、FedAdamの3つの標準的なサーバサイドアグリゲータを統合し、中央のユーザレベルのディファレンシャルプライバシとセキュアなアグリゲーションを結合して、ユーティリティを正式な保証と整合させる。
主な特徴は以下の通り。
一 クライアント間のエンドツーエンドのフルモデルトレーニング及び同期
2 サーバは、参加しきい値が満たされた場合にのみ、クリップされた重み付き和を観測する。
三 監査可能なユーザレベルのプライバシについて、Renyi会計による中央ガウス民主党を適用すること。
(iv)ページ正規化、トレースセグメンテーション、グリッドリード抑制、12リード信号へのベクトル化を含むキャリブレーション対応デジタル化パイプライン。
PTB-XLでレンダリングされたECGページの実験では、集中的なパフォーマンスに近づきながら、FedAvgやFedProxと比較して、適応型サーバ更新(FedAdam)による収束が一貫して速く、遅くなる。
プライバシメカニズムは、生画像やクライアント毎のアップデートの露出を防止しつつ、競合の精度を維持し、デプロイ可能で監査可能な保証をマルチインスタンス設定に適合させる。
関連論文リスト
- Perfectly-Private Analog Secure Aggregation in Federated Learning [51.61616734974475]
連合学習では、複数のパーティがモデルをローカルにトレーニングし、パラメータを中央サーバと共有する。
本稿では,有限場ではなくトーラスを用いた新しいセキュアパラメータアグリゲーション法を提案する。
論文 参考訳(メタデータ) (2025-09-10T15:22:40Z) - Variational Gaussian Mixture Manifold Models for Client-Specific Federated Personalization [0.0]
VGM$2$は、クライアント固有のパラメトリックUMAP埋め込みを学習する幾何学中心のPFLフレームワークである。
各クライアントは、マーカーの重み、手段、およびばらつきに対してディリクレ-ノルマル-逆-ガンマの後部を保持する。
VGM$2$は、強いベースラインに比べて、競争力または優れたテストF1スコアを達成する。
論文 参考訳(メタデータ) (2025-09-04T01:28:02Z) - Federated Cross-Domain Click-Through Rate Prediction With Large Language Model Augmentation [4.978132660177235]
大規模言語モデル拡張(FedCCTR-LM)を用いたFedCCTR予測について述べる。
まずプライバシ保護強化ネットワーク(PrivNet)では,ユーザとアイテムの表現を充実させるために,大規模な言語モデルを採用している。
第2に、IDST-CL(Independent Domain-Specific Transformer with Contrastive Learning)モジュールは、ドメイン固有の、共有されたユーザの好みを乱す。
第3に、Adaptive Local Differential Privacy(AdaLDP)メカニズムは、ノイズ注入を動的に校正し、厳密なプライバシー保証と予測精度の最適なバランスを実現する。
論文 参考訳(メタデータ) (2025-03-21T06:22:42Z) - Optimizing Cross-Client Domain Coverage for Federated Instruction Tuning of Large Language Models [87.49293964617128]
大規模言語モデル(LLM)のためのFedDIT(Federated Domain-specific instruction tuning)は、分散プライベートデータと限定データを用いて、特定のドメインの性能を向上させることを目的としている。
データ不均一性ではなく、クロスクライアントなドメインカバレッジが重要な要素であることを実証的に証明します。
我々は多様性指向のクライアントセンターの選択と検索に基づく拡張を通じて、このカバレッジを明示的に最大化するアルゴリズムであるFedDCAを紹介する。
論文 参考訳(メタデータ) (2024-09-30T09:34:31Z) - PeFAD: A Parameter-Efficient Federated Framework for Time Series Anomaly Detection [51.20479454379662]
私たちはaを提案します。
フェデレートされた異常検出フレームワークであるPeFADは、プライバシーの懸念が高まっている。
我々は、4つの実際のデータセットに対して広範な評価を行い、PeFADは既存の最先端ベースラインを最大28.74%上回っている。
論文 参考訳(メタデータ) (2024-06-04T13:51:08Z) - Stochastic Coded Federated Learning with Convergence and Privacy
Guarantees [8.2189389638822]
フェデレートラーニング(FL)は、プライバシを保存する分散機械学習フレームワークとして多くの注目を集めている。
本稿では、トラグラー問題を緩和するために、SCFL(Coded Federated Learning)というコード付きフェデレーション学習フレームワークを提案する。
我々は、相互情報差分プライバシー(MI-DP)によるプライバシー保証を特徴付け、連合学習における収束性能を分析する。
論文 参考訳(メタデータ) (2022-01-25T04:43:29Z) - Robust Semi-supervised Federated Learning for Images Automatic
Recognition in Internet of Drones [57.468730437381076]
プライバシー保護型UAV画像認識のための半教師付きフェデレートラーニング(SSFL)フレームワークを提案する。
異なるカメラモジュールを使用したUAVによって収集されたローカルデータの数、特徴、分布には大きな違いがある。
本稿では,クライアントがトレーニングに参加する頻度,すなわちFedFreqアグリゲーションルールに基づくアグリゲーションルールを提案する。
論文 参考訳(メタデータ) (2022-01-03T16:49:33Z) - Gradient-Leakage Resilient Federated Learning [8.945356237213007]
Federated Learning(FL)は,クライアントプライバシをデフォルトとする,新たな分散学習パラダイムである。
近年の研究では、FLの勾配リークがクライアントのトレーニングデータのプライバシーを損なう可能性があることが示されている。
本稿では,学習例ごとのクライアント差分プライバシーを用いて,プライバシー保護フェデレーション学習への勾配リーク耐性アプローチを提案する。
論文 参考訳(メタデータ) (2021-07-02T15:51:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。