論文の概要: Secure Federated Learning for Neuroimaging
- arxiv url: http://arxiv.org/abs/2205.05249v1
- Date: Wed, 11 May 2022 03:36:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-12 18:08:17.750515
- Title: Secure Federated Learning for Neuroimaging
- Title(参考訳): ニューロイメージングのための安全なフェデレーション学習
- Authors: Dimitris Stripelis, Umang Gupta, Hamza Saleem, Nikhil Dhinagar, Tanmay
Ghai, Rafael Sanchez, Chrysovalantis Anastasiou, Armaghan Asghar, Greg Ver
Steeg, Srivatsan Ravi, Muhammad Naveed, Paul M. Thompson, Jose Luis Ambite
- Abstract要約: 我々は、データを共有することなく、複数のデータソースにまたがるニューラルネットワークの分散トレーニングを可能にするセキュアフェデレーション学習アーキテクチャ、MetisFLを提案する。
具体的には、アルツハイマー病を分類するためのニューラルネットワークの訓練について検討し、複数の部位に分布する磁気共鳴画像データセットから脳年齢を推定する。
- 参考スコア(独自算出の注目度): 13.713877888845907
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The amount of biomedical data continues to grow rapidly. However, the ability
to collect data from multiple sites for joint analysis remains challenging due
to security, privacy, and regulatory concerns. We present a Secure Federated
Learning architecture, MetisFL, which enables distributed training of neural
networks over multiple data sources without sharing data. Each site trains the
neural network over its private data for some time, then shares the neural
network parameters (i.e., weights, gradients) with a Federation Controller,
which in turn aggregates the local models, sends the resulting community model
back to each site, and the process repeats. Our architecture provides strong
security and privacy. First, sample data never leaves a site. Second, neural
parameters are encrypted before transmission and the community model is
computed under fully-homomorphic encryption. Finally, we use
information-theoretic methods to limit information leakage from the neural
model to prevent a curious site from performing membership attacks. We
demonstrate this architecture in neuroimaging. Specifically, we investigate
training neural models to classify Alzheimer's disease, and estimate Brain Age,
from magnetic resonance imaging datasets distributed across multiple sites,
including heterogeneous environments where sites have different amounts of
data, statistical distributions, and computational capabilities.
- Abstract(参考訳): バイオメディカルデータの量は急速に増え続けている。
しかし、セキュリティ、プライバシー、規制上の懸念から、共同分析のために複数のサイトからデータを収集する能力は依然として困難である。
本研究では,複数のデータソースに分散したニューラルネットワークのトレーニングを可能にする,セキュアなフェデレーション学習アーキテクチャであるmetisflを提案する。
各サイトは、しばらくの間、ニューラルネットワークをプライベートデータ上でトレーニングし、ニューラルネットワークパラメータ(ウェイト、勾配)をフェデレーションコントローラと共有し、ローカルモデルを集約し、結果のコミュニティモデルを各サイトに送信し、プロセスが繰り返される。
私たちのアーキテクチャは強力なセキュリティとプライバシを提供します。
まず、サンプルデータは決してサイトを離れない。
第二に、神経パラメータは送信前に暗号化され、コミュニティモデルは完全正則暗号で計算される。
最後に,情報理論的な手法を用いて,神経モデルからの情報漏洩を制限し,興味のあるサイトがメンバシップアタックを行うのを防ぐ。
私たちはこのアーキテクチャを神経画像で示します。
具体的には,複数の部位に分布する磁気共鳴イメージングデータセットから,アルツハイマー病を分類し,脳年齢を推定する訓練用ニューラルモデルについて検討した。
関連論文リスト
- Assessing Neural Network Representations During Training Using
Noise-Resilient Diffusion Spectral Entropy [55.014926694758195]
ニューラルネットワークにおけるエントロピーと相互情報は、学習プロセスに関する豊富な情報を提供する。
データ幾何を利用して基礎となる多様体にアクセスし、これらの情報理論測度を確実に計算する。
本研究は,高次元シミュレーションデータにおける固有次元と関係強度の耐雑音性の測定結果である。
論文 参考訳(メタデータ) (2023-12-04T01:32:42Z) - Source-Free Collaborative Domain Adaptation via Multi-Perspective
Feature Enrichment for Functional MRI Analysis [55.03872260158717]
安静時MRI機能(rs-fMRI)は、神経疾患の分析を助けるために多地点で研究されている。
ソース領域とターゲット領域の間のfMRIの不均一性を低減するための多くの手法が提案されている。
しかし、マルチサイト研究における懸念やデータストレージの負担のため、ソースデータの取得は困難である。
我々は、fMRI解析のためのソースフリー協調ドメイン適応フレームワークを設計し、事前訓練されたソースモデルとラベルなしターゲットデータのみにアクセスできるようにする。
論文 参考訳(メタデータ) (2023-08-24T01:30:18Z) - Preserving Specificity in Federated Graph Learning for fMRI-based
Neurological Disorder Identification [31.668499876984487]
rs-fMRI解析と自動脳障害識別のための特異性を考慮したグラフ学習フレームワークを提案する。
各クライアントにおいて、我々のモデルは共有ブランチとパーソナライズされたブランチで構成されており、そこでは共有ブランチのパラメータがサーバに送信され、パーソナライズされたブランチのパラメータはローカルのままです。
被験者1,218人の2つのfMRIデータセットの実験結果から、SFGLは最先端のアプローチよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2023-08-20T15:55:45Z) - Data-Driven Network Neuroscience: On Data Collection and Benchmark [6.796086914275059]
本稿では,神経科学,機械学習,グラフ解析の交わりにおける潜在的な研究のための,機能的ヒト脳ネットワークデータの収集について述べる。
データセットは6つの異なるソースから始まり、4つの脳の状態をカバーし、合計で2,702人の被験者で構成されている。
論文 参考訳(メタデータ) (2022-11-11T02:14:28Z) - Measuring Unintended Memorisation of Unique Private Features in Neural
Networks [15.174895411434026]
トレーニングデータに1回だけ発生しても、ニューラルネットワークは意図せずユニークな特徴を記憶している。
ユニークな特徴の例として、トレーニング画像に誤って現れる人物の名前がある。
論文 参考訳(メタデータ) (2022-02-16T14:39:05Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Reducing Catastrophic Forgetting in Self Organizing Maps with
Internally-Induced Generative Replay [67.50637511633212]
生涯学習エージェントは、パターン知覚データの無限のストリームから継続的に学習することができる。
適応するエージェントを構築する上での歴史的難しさの1つは、ニューラルネットワークが新しいサンプルから学ぶ際に、以前取得した知識を維持するのに苦労していることである。
この問題は破滅的な忘れ(干渉)と呼ばれ、今日の機械学習の領域では未解決の問題のままである。
論文 参考訳(メタデータ) (2021-12-09T07:11:14Z) - Complex-valued Federated Learning with Differential Privacy and MRI Applications [51.34714485616763]
複雑な値を持つガウスのメカニズムを導入し、その振る舞いは$f$-DP、$(varepsilon, delta)$-DP、R'enyi-DPで特徴づけられる。
本稿では,DPと互換性のある複雑なニューラルネットワークプリミティブを提案する。
実験では,実世界の課題に対して,DPを用いた複合数値ニューラルネットワークを訓練することで概念実証を行う。
論文 参考訳(メタデータ) (2021-10-07T14:03:00Z) - NeuraCrypt: Hiding Private Health Data via Random Neural Networks for
Public Training [64.54200987493573]
我々は,ランダムな深層ニューラルネットワークに基づくプライベート符号化方式であるNeuraCryptを提案する。
NeuraCryptは、データ所有者のみが知っているランダムに構築されたニューラルネットワークを使用して、生の患者データをエンコードする。
我々は,NeuraCryptが,様々なX線タスクの非プライベートベースラインに対して,競合精度を達成することを示す。
論文 参考訳(メタデータ) (2021-06-04T13:42:21Z) - Scaling Neuroscience Research using Federated Learning [1.2234742322758416]
単一の場所にデータをコピーする必要がある機械学習アプローチは、データ共有の課題によって妨げられる。
Federated Learningは、データサイロ上で共同モデルを学ぶための有望なアプローチです。
このアーキテクチャは対象データをサイト間で共有せず、集約されたパラメータのみであり、しばしば暗号化された環境で共有する。
論文 参考訳(メタデータ) (2021-02-16T20:30:04Z) - Multi-site fMRI Analysis Using Privacy-preserving Federated Learning and
Domain Adaptation: ABIDE Results [13.615292855384729]
高品質なディープラーニングモデルを訓練するには,大量の患者情報を集める必要がある。
患者データのプライバシを保護する必要があるため、複数の機関から中央データベースを組み立てることは困難である。
フェデレート・ラーニング(Federated Learning)は、エンティティのデータを集中化せずに、人口レベルのモデルをトレーニングすることを可能にする。
論文 参考訳(メタデータ) (2020-01-16T04:49:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。