論文の概要: Combined Learning of Neural Network Weights for Privacy in Collaborative
Tasks
- arxiv url: http://arxiv.org/abs/2205.00361v1
- Date: Sat, 30 Apr 2022 22:40:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-04 07:51:15.152496
- Title: Combined Learning of Neural Network Weights for Privacy in Collaborative
Tasks
- Title(参考訳): 協調作業におけるプライバシのためのニューラルネットワーク重みの複合学習
- Authors: Aline R. Ioste, Alan M. Durham, Marcelo Finger
- Abstract要約: CoLN(Combined Learning of Neural Network Weights)は、データを共有することなく、センシティブなデータ上で機械学習モデルを安全に組み合わせる新しい方法である。
CoLNは、プライバシーの問題がデータ共有を妨げる医療領域で必要とされるように、安全な共同研究に貢献することができる。
- 参考スコア(独自算出の注目度): 1.1172382217477126
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce CoLN, Combined Learning of Neural network weights, a novel
method to securely combine Machine Learning models over sensitive data with no
sharing of data. With CoLN, local hosts use the same Neural Network
architecture and base parameters to train a model using only locally available
data. Locally trained models are then submitted to a combining agent, which
produces a combined model. The new model's parameters can be sent back to
hosts, and can then be used as initial parameters for a new training iteration.
CoLN is capable of combining several distributed neural networks of the same
kind but is not restricted to any single neural architecture. In this paper we
detail the combination algorithm and present experiments with feed-forward,
convolutional, and recurrent Neural Network architectures, showing that the
CoLN combined model approximates the performance of a hypothetical ideal
centralized model, trained using the combination of the local datasets. CoLN
can contribute to secure collaborative research, as required in the medical
area, where privacy issues preclude data sharing, but where the limitations of
local data demand information derived from larger datasets.
- Abstract(参考訳): 本稿では,ニューラルネットワーク重みの複合学習であるcolnを紹介し,センシティブなデータ上に機械学習モデルを安全に結合する新しい手法を提案する。
CoLNでは、ローカルホストは同じニューラルネットワークアーキテクチャとベースパラメータを使用して、ローカルに利用可能なデータのみを使用してモデルをトレーニングする。
ローカルにトレーニングされたモデルがコンビネーションエージェントに送信され、コンビネーションモデルが生成される。
新しいモデルのパラメータをホストに送信し、新しいトレーニングイテレーションの初期パラメータとして使用することができる。
CoLNは同じ種類の複数の分散ニューラルネットワークを組み合わせることができるが、単一のニューラルネットワークに制限されない。
本稿では,この組み合わせアルゴリズムと,フィードフォワード,畳み込み,繰り返しニューラルネットワークアーキテクチャを用いた実験を詳述し,CLN結合モデルが局所データセットの組み合わせを用いて訓練された仮説的理想集中モデルの性能を近似することを示す。
colnは、プライバシ問題はデータ共有を妨げるが、ローカルデータの制限がより大きなデータセットに由来する情報を要求する医療分野において必要な、安全な共同研究に貢献することができる。
関連論文リスト
- Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Set-based Neural Network Encoding Without Weight Tying [91.37161634310819]
本稿では,ネットワーク特性予測のためのニューラルネットワーク重み符号化手法を提案する。
我々のアプローチは、混合アーキテクチャのモデル動物園でニューラルネットワークを符号化することができる。
ニューラルネットワークのプロパティ予測には,クロスデータセットとクロスアーキテクチャという,2つの新しいタスクを導入する。
論文 参考訳(メタデータ) (2023-05-26T04:34:28Z) - Privacy-Preserving Ensemble Infused Enhanced Deep Neural Network
Framework for Edge Cloud Convergence [18.570317928688606]
本稿では,プライバシー保護のための深層ニューラルネットワーク(DNN)に基づく学習フレームワークを提案する。
収束において、エッジサーバは、IoT生成されたバイオイメージの保存と、ローカルモデルのトレーニングのためのホスティングアルゴリズムの両方に使用される。
提案するフレームワークの性能を評価するために,いくつかの実験を行った。
論文 参考訳(メタデータ) (2023-05-16T07:01:44Z) - Neural Attentive Circuits [93.95502541529115]
我々は、NAC(Neural Attentive Circuits)と呼ばれる汎用的でモジュラーなニューラルアーキテクチャを導入する。
NACは、ドメイン知識を使わずに、ニューラルネットワークモジュールのパラメータ化と疎結合を学習する。
NACは推論時に8倍のスピードアップを達成するが、性能は3%以下である。
論文 参考訳(メタデータ) (2022-10-14T18:00:07Z) - Canoe : A System for Collaborative Learning for Neural Nets [4.547883122787855]
Canoeはニューラルネットワークの知識伝達を容易にするフレームワークである。
Canoeはヘルパーノードのニューラルネットワークから重要なパラメータを動的に抽出する新しいシステムサポートを提供する。
異なるPyTorchモデルとニューラルネットワークモデルによるCanoeの評価は、知識伝達機構が、独立した学習に比べて3.5Xへのモデルの適応性を改善することを示した。
論文 参考訳(メタデータ) (2021-08-27T05:30:15Z) - Clustered Federated Learning via Generalized Total Variation
Minimization [83.26141667853057]
本研究では,分散ネットワーク構造を持つローカルデータセットの局所的(あるいはパーソナライズされた)モデルを学習するための最適化手法について検討する。
我々の主要な概念的貢献は、総変動最小化(GTV)としてフェデレーション学習を定式化することである。
私たちのアルゴリズムの主な貢献は、完全に分散化されたフェデレーション学習アルゴリズムです。
論文 参考訳(メタデータ) (2021-05-26T18:07:19Z) - MLDS: A Dataset for Weight-Space Analysis of Neural Networks [0.0]
MLDSは、注意深く制御されたパラメータを持つ何千ものトレーニングニューラルネットワークからなる新しいデータセットである。
このデータセットは、モデル-to-modelとモデル-to-training-data関係に関する新たな洞察を可能にする。
論文 参考訳(メタデータ) (2021-04-21T14:24:26Z) - Probabilistic Federated Learning of Neural Networks Incorporated with
Global Posterior Information [4.067903810030317]
フェデレートラーニングでは、ローカルクライアントで訓練されたモデルをグローバルモデルに蒸留する。
本稿では,確率的フェデレーションニューラルネットワークの拡張手法を提案する。
我々の新しい手法は、単一のコミュニケーションラウンドと追加のコミュニケーションラウンドの両方において、一般的な最先端のフェデレーション学習方法より優れています。
論文 参考訳(メタデータ) (2020-12-06T03:54:58Z) - Exploiting Heterogeneity in Operational Neural Networks by Synaptic
Plasticity [87.32169414230822]
最近提案されたネットワークモデルであるオペレーショナルニューラルネットワーク(ONN)は、従来の畳み込みニューラルネットワーク(CNN)を一般化することができる。
本研究では, 生体ニューロンにおける本質的な学習理論を示すSynaptic Plasticityパラダイムに基づいて, ネットワークの隠蔽ニューロンに対する最強演算子集合の探索に焦点をあてる。
高難易度問題に対する実験結果から、神経細胞や層が少なくても、GISベースのONNよりも優れた学習性能が得られることが示された。
論文 参考訳(メタデータ) (2020-08-21T19:03:23Z) - Consensus Driven Learning [0.0]
本稿では,信頼できないネットワーク上での非同期更新を用いて,ノードのネットワークがトレーニングを調整できる分散分散型学習手法を提案する。
これは、様々なノードを調整するために、分散平均コンセンサスアルゴリズムからインスピレーションを得て達成される。
この調整手法により,高度に偏りのあるデータセットや間欠的な通信障害の存在下でモデルを学習できることを示す。
論文 参考訳(メタデータ) (2020-05-20T18:24:19Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。