論文の概要: FedRBE -- a decentralized privacy-preserving federated batch effect correction tool for omics data based on limma
- arxiv url: http://arxiv.org/abs/2412.05894v1
- Date: Sun, 08 Dec 2024 11:23:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-10 14:55:32.470456
- Title: FedRBE -- a decentralized privacy-preserving federated batch effect correction tool for omics data based on limma
- Title(参考訳): FedRBE - リムマに基づくオミクスデータのための分散型プライバシ保護フェデレーションバッチエフェクト修正ツール
- Authors: Yuliya Burankova, Julian Klemm, Jens J. G. Lohmann, Ahmad Taheri, Niklas Probul, Jan Baumbach, Olga Zolotareva,
- Abstract要約: FedRBEはlimmaの removeBatch メソッドのフェデレーションである。
FedRBEは、欠落した値のデータを効果的に処理し、自動化されたユーザフレンドリなオンラインユーザインターフェースを提供する。
我々は,シミュレーションおよび実オミクスデータに基づいて,フェドRBEアルゴリズムの評価を行い,非無視差のある集中型手法に匹敵する性能を実現した。
- 参考スコア(独自算出の注目度): 0.3141085922386211
- License:
- Abstract: Batch effects in omics data obscure true biological signals and constitute a major challenge for privacy-preserving analyses of distributed patient data. Existing batch effect correction methods either require data centralization, which may easily conflict with privacy requirements, or lack support for missing values and automated workflows. To bridge this gap, we developed fedRBE, a federated implementation of limma's removeBatchEffect method. We implemented it as an app for the FeatureCloud platform. Unlike its existing analogs, fedRBE effectively handles data with missing values and offers an automated, user-friendly online user interface (https://featurecloud.ai/app/fedrbe). Leveraging secure multi-party computation provides enhanced security guarantees over classical federated learning approaches. We evaluated our fedRBE algorithm on simulated and real omics data, achieving performance comparable to the centralized method with negligible differences (no greater than 3.6E-13). By enabling collaborative correction without data sharing, fedRBE facilitates large-scale omics studies where batch effect correction is crucial.
- Abstract(参考訳): オミクスデータにおけるバッチ効果は、真の生物学的シグナルを曖昧にし、分散された患者データのプライバシー保護分析において大きな課題となっている。
既存のバッチエフェクト補正手法では、プライバシ要件と容易に矛盾するデータ集中化が必要か、あるいは欠落した値や自動化ワークフローのサポートが欠如している可能性がある。
このギャップを埋めるため, limma の removeBatchEffect 法のフェデレーションである FedRBE を開発した。
FeatureCloudプラットフォームのアプリとして実装しました。
既存のアナログとは異なり、edRBEは欠落した値でデータを効果的に処理し、自動化されたユーザフレンドリなオンラインユーザインターフェース(https://featurecloud.ai/app/fedrbe)を提供する。
セキュアなマルチパーティ計算を活用することで、古典的なフェデレート学習アプローチよりもセキュリティの保証が強化される。
シミュレーションおよび実オミクスデータに基づいて,我々のフェドRBEアルゴリズムを評価し,非無視差(3.6E-13以下)を伴う集中型手法に匹敵する性能を実現した。
データ共有なしで協調的な補正を可能にすることにより、バッチ効果の補正が不可欠となる大規模なオミクス研究が促進される。
関連論文リスト
- Secure Federated Data Distillation [2.5311562666866494]
プライバシを保ちながら蒸留プロセスの分散化を図るためのセキュアフェデレーションデータ蒸留フレームワーク(SFDD)を提案する。
蒸留知識でグローバルモデルを訓練することに焦点を当てた既存のフェデレート蒸留技術とは異なり,本手法は局所的な貢献を示さずに蒸留データセットを作成することを目的としている。
論文 参考訳(メタデータ) (2025-02-19T13:54:44Z) - Noise-Adaptive Conformal Classification with Marginal Coverage [53.74125453366155]
本稿では,ランダムラベルノイズによる交換性からの偏差を効率的に処理できる適応型共形推論手法を提案する。
本手法は,合成および実データに対して,その有効性を示す広範囲な数値実験により検証する。
論文 参考訳(メタデータ) (2025-01-29T23:55:23Z) - Secure Aggregation Meets Sparsification in Decentralized Learning [1.7010199949406575]
本稿では,分散学習(DL)のための新しいセキュアアグリゲーションプロトコルであるCESARを紹介する。
CESARは、正直だが正反対の敵を確実に擁護し、両者の共謀に対処するために形式的に適応することができる。
論文 参考訳(メタデータ) (2024-05-13T12:52:58Z) - FedADMM-InSa: An Inexact and Self-Adaptive ADMM for Federated Learning [1.802525429431034]
我々はFedADMM-InSaと呼ばれる不正確な自己適応型FedADMMアルゴリズムを提案する。
結果の不正確なADMMの収束は、強い凸損失関数の仮定の下で証明される。
提案アルゴリズムは,クライアントの局所的な計算負荷を大幅に低減し,バニラFedADMMと比較して学習プロセスを高速化する。
論文 参考訳(メタデータ) (2024-02-21T18:19:20Z) - MAPS: A Noise-Robust Progressive Learning Approach for Source-Free
Domain Adaptive Keypoint Detection [76.97324120775475]
クロスドメインキーポイント検出方法は、常に適応中にソースデータにアクセスする必要がある。
本稿では、ターゲット領域に十分に訓練されたソースモデルのみを提供する、ソースフリーなドメイン適応キーポイント検出について考察する。
論文 参考訳(メタデータ) (2023-02-09T12:06:08Z) - FedSkip: Combatting Statistical Heterogeneity with Federated Skip
Aggregation [95.85026305874824]
我々はFedSkipと呼ばれるデータ駆動型アプローチを導入し、フェデレーション平均化を定期的にスキップし、ローカルモデルをクロスデバイスに分散することで、クライアントの最適化を改善する。
我々は、FedSkipがはるかに高い精度、より良いアグリゲーション効率、競合する通信効率を達成することを示すために、さまざまなデータセットに関する広範な実験を行う。
論文 参考訳(メタデータ) (2022-12-14T13:57:01Z) - FedCC: Robust Federated Learning against Model Poisoning Attacks [0.0]
フェデレートラーニング(Federated Learning)は、プライバシの問題に対処するために設計された分散フレームワークである。
新たなアタックサーフェスを導入しており、データは独立に、そしてIdentically Distributedである場合、特に困難である。
我々は,モデル中毒に対する簡易かつ効果的な新しい防御アルゴリズムであるFedCCを提案する。
論文 参考訳(メタデータ) (2022-12-05T01:52:32Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - BEAS: Blockchain Enabled Asynchronous & Secure Federated Machine
Learning [0.0]
我々は、N-party Federated Learningのための最初のブロックチェーンベースのフレームワークBEASを紹介する。
グラデーションプルーニングを使用したトレーニングデータの厳格なプライバシー保証を提供する。
異常検出プロトコルは、データ汚染攻撃のリスクを最小限に抑えるために使用される。
また、異種学習環境における早期収束を防止するための新しいプロトコルも定義する。
論文 参考訳(メタデータ) (2022-02-06T17:11:14Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。