論文の概要: Secure & Private Federated Neuroimaging
- arxiv url: http://arxiv.org/abs/2205.05249v2
- Date: Mon, 28 Aug 2023 13:00:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-30 02:04:58.982867
- Title: Secure & Private Federated Neuroimaging
- Title(参考訳): 安全・私的連合ニューロイメージング
- Authors: Dimitris Stripelis, Umang Gupta, Hamza Saleem, Nikhil Dhinagar, Tanmay
Ghai, Rafael Chrysovalantis Anastasiou, Armaghan Asghar, Greg Ver Steeg,
Srivatsan Ravi, Muhammad Naveed, Paul M. Thompson, Jose Luis Ambite
- Abstract要約: Federated Learningは、データを共有することなく、複数のデータソース上でニューラルネットワークモデルの分散トレーニングを可能にする。
各サイトは、ニューラルネットワークをプライベートデータ上でしばらくトレーニングし、ニューラルネットワークパラメータをフェデレーションコントローラと共有する。
当社のフェデレートラーニングアーキテクチャであるMetisFLは、強力なセキュリティとプライバシを提供します。
- 参考スコア(独自算出の注目度): 17.946206585229675
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The amount of biomedical data continues to grow rapidly. However, collecting
data from multiple sites for joint analysis remains challenging due to
security, privacy, and regulatory concerns. To overcome this challenge, we use
Federated Learning, which enables distributed training of neural network models
over multiple data sources without sharing data. Each site trains the neural
network over its private data for some time, then shares the neural network
parameters (i.e., weights, gradients) with a Federation Controller, which in
turn aggregates the local models, sends the resulting community model back to
each site, and the process repeats. Our Federated Learning architecture,
MetisFL, provides strong security and privacy. First, sample data never leaves
a site. Second, neural network parameters are encrypted before transmission and
the global neural model is computed under fully-homomorphic encryption.
Finally, we use information-theoretic methods to limit information leakage from
the neural model to prevent a curious site from performing model inversion or
membership attacks. We present a thorough evaluation of the performance of
secure, private federated learning in neuroimaging tasks, including for
predicting Alzheimer's disease and estimating BrainAGE from magnetic resonance
imaging (MRI) studies, in challenging, heterogeneous federated environments
where sites have different amounts of data and statistical distributions.
- Abstract(参考訳): バイオメディカルデータの量は急速に増え続けている。
しかし、セキュリティ、プライバシー、規制上の懸念から、共同分析のために複数のサイトからデータを収集することは依然として困難である。
この課題を克服するために,複数のデータソースに対して,データを共有することなくニューラルネットワークモデルの分散トレーニングを可能にするフェデレーション学習(federated learning)を用いる。
各サイトは、しばらくの間、ニューラルネットワークをプライベートデータ上でトレーニングし、ニューラルネットワークパラメータ(ウェイト、勾配)をフェデレーションコントローラと共有し、ローカルモデルを集約し、結果のコミュニティモデルを各サイトに送信し、プロセスが繰り返される。
当社のフェデレートラーニングアーキテクチャであるMetisFLは、強力なセキュリティとプライバシを提供します。
まず、サンプルデータは決してサイトを離れない。
第二に、ニューラルネットワークパラメータは送信前に暗号化され、グローバルニューラルネットワークモデルは完全同型暗号化の下で計算される。
最後に,情報理論を用いてニューラルモデルからの情報漏洩を制限することにより,好奇サイトがモデル反転やメンバシップ攻撃を行うのを防ぐ。
我々は,脳波画像(MRI)によるアルツハイマー病の予測や脳波推定など,神経画像のタスクにおけるセキュアでプライベートなフェデレーション学習の性能を,サイトがデータ量や統計分布の異なる異質なフェデレーション環境において徹底的に評価する。
関連論文リスト
- Assessing Neural Network Representations During Training Using
Noise-Resilient Diffusion Spectral Entropy [55.014926694758195]
ニューラルネットワークにおけるエントロピーと相互情報は、学習プロセスに関する豊富な情報を提供する。
データ幾何を利用して基礎となる多様体にアクセスし、これらの情報理論測度を確実に計算する。
本研究は,高次元シミュレーションデータにおける固有次元と関係強度の耐雑音性の測定結果である。
論文 参考訳(メタデータ) (2023-12-04T01:32:42Z) - Source-Free Collaborative Domain Adaptation via Multi-Perspective
Feature Enrichment for Functional MRI Analysis [55.03872260158717]
安静時MRI機能(rs-fMRI)は、神経疾患の分析を助けるために多地点で研究されている。
ソース領域とターゲット領域の間のfMRIの不均一性を低減するための多くの手法が提案されている。
しかし、マルチサイト研究における懸念やデータストレージの負担のため、ソースデータの取得は困難である。
我々は、fMRI解析のためのソースフリー協調ドメイン適応フレームワークを設計し、事前訓練されたソースモデルとラベルなしターゲットデータのみにアクセスできるようにする。
論文 参考訳(メタデータ) (2023-08-24T01:30:18Z) - Preserving Specificity in Federated Graph Learning for fMRI-based
Neurological Disorder Identification [31.668499876984487]
rs-fMRI解析と自動脳障害識別のための特異性を考慮したグラフ学習フレームワークを提案する。
各クライアントにおいて、我々のモデルは共有ブランチとパーソナライズされたブランチで構成されており、そこでは共有ブランチのパラメータがサーバに送信され、パーソナライズされたブランチのパラメータはローカルのままです。
被験者1,218人の2つのfMRIデータセットの実験結果から、SFGLは最先端のアプローチよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2023-08-20T15:55:45Z) - Data-Driven Network Neuroscience: On Data Collection and Benchmark [6.796086914275059]
本稿では,神経科学,機械学習,グラフ解析の交わりにおける潜在的な研究のための,機能的ヒト脳ネットワークデータの収集について述べる。
データセットは6つの異なるソースから始まり、4つの脳の状態をカバーし、合計で2,702人の被験者で構成されている。
論文 参考訳(メタデータ) (2022-11-11T02:14:28Z) - Measuring Unintended Memorisation of Unique Private Features in Neural
Networks [15.174895411434026]
トレーニングデータに1回だけ発生しても、ニューラルネットワークは意図せずユニークな特徴を記憶している。
ユニークな特徴の例として、トレーニング画像に誤って現れる人物の名前がある。
論文 参考訳(メタデータ) (2022-02-16T14:39:05Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Reducing Catastrophic Forgetting in Self Organizing Maps with
Internally-Induced Generative Replay [67.50637511633212]
生涯学習エージェントは、パターン知覚データの無限のストリームから継続的に学習することができる。
適応するエージェントを構築する上での歴史的難しさの1つは、ニューラルネットワークが新しいサンプルから学ぶ際に、以前取得した知識を維持するのに苦労していることである。
この問題は破滅的な忘れ(干渉)と呼ばれ、今日の機械学習の領域では未解決の問題のままである。
論文 参考訳(メタデータ) (2021-12-09T07:11:14Z) - Complex-valued Federated Learning with Differential Privacy and MRI Applications [51.34714485616763]
複雑な値を持つガウスのメカニズムを導入し、その振る舞いは$f$-DP、$(varepsilon, delta)$-DP、R'enyi-DPで特徴づけられる。
本稿では,DPと互換性のある複雑なニューラルネットワークプリミティブを提案する。
実験では,実世界の課題に対して,DPを用いた複合数値ニューラルネットワークを訓練することで概念実証を行う。
論文 参考訳(メタデータ) (2021-10-07T14:03:00Z) - NeuraCrypt: Hiding Private Health Data via Random Neural Networks for
Public Training [64.54200987493573]
我々は,ランダムな深層ニューラルネットワークに基づくプライベート符号化方式であるNeuraCryptを提案する。
NeuraCryptは、データ所有者のみが知っているランダムに構築されたニューラルネットワークを使用して、生の患者データをエンコードする。
我々は,NeuraCryptが,様々なX線タスクの非プライベートベースラインに対して,競合精度を達成することを示す。
論文 参考訳(メタデータ) (2021-06-04T13:42:21Z) - Scaling Neuroscience Research using Federated Learning [1.2234742322758416]
単一の場所にデータをコピーする必要がある機械学習アプローチは、データ共有の課題によって妨げられる。
Federated Learningは、データサイロ上で共同モデルを学ぶための有望なアプローチです。
このアーキテクチャは対象データをサイト間で共有せず、集約されたパラメータのみであり、しばしば暗号化された環境で共有する。
論文 参考訳(メタデータ) (2021-02-16T20:30:04Z) - Multi-site fMRI Analysis Using Privacy-preserving Federated Learning and
Domain Adaptation: ABIDE Results [13.615292855384729]
高品質なディープラーニングモデルを訓練するには,大量の患者情報を集める必要がある。
患者データのプライバシを保護する必要があるため、複数の機関から中央データベースを組み立てることは困難である。
フェデレート・ラーニング(Federated Learning)は、エンティティのデータを集中化せずに、人口レベルのモデルをトレーニングすることを可能にする。
論文 参考訳(メタデータ) (2020-01-16T04:49:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。