論文の概要: Decentralized Federated Learning Preserves Model and Data Privacy
- arxiv url: http://arxiv.org/abs/2102.00880v1
- Date: Mon, 1 Feb 2021 14:38:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-05 07:19:05.928405
- Title: Decentralized Federated Learning Preserves Model and Data Privacy
- Title(参考訳): 分散フェデレーション学習はモデルとデータのプライバシを保存する
- Authors: Thorsten Wittkopp and Alexander Acker
- Abstract要約: 我々は、訓練されたモデル間で知識を共有することができる、完全に分散化されたアプローチを提案する。
生徒は、合成された入力データを通じて教師の出力を訓練する。
その結果,教師が学習した未学習学生モデルが,教師と同等のF1スコアに達することがわかった。
- 参考スコア(独自算出の注目度): 77.454688257702
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The increasing complexity of IT systems requires solutions, that support
operations in case of failure. Therefore, Artificial Intelligence for System
Operations (AIOps) is a field of research that is becoming increasingly
focused, both in academia and industry. One of the major issues of this area is
the lack of access to adequately labeled data, which is majorly due to legal
protection regulations or industrial confidentiality. Methods to mitigate this
stir from the area of federated learning, whereby no direct access to training
data is required. Original approaches utilize a central instance to perform the
model synchronization by periodical aggregation of all model parameters.
However, there are many scenarios where trained models cannot be published
since its either confidential knowledge or training data could be reconstructed
from them. Furthermore the central instance needs to be trusted and is a single
point of failure. As a solution, we propose a fully decentralized approach,
which allows to share knowledge between trained models. Neither original
training data nor model parameters need to be transmitted. The concept relies
on teacher and student roles that are assigned to the models, whereby students
are trained on the output of their teachers via synthetically generated input
data. We conduct a case study on log anomaly detection. The results show that
an untrained student model, trained on the teachers output reaches comparable
F1-scores as the teacher. In addition, we demonstrate that our method allows
the synchronization of several models trained on different distinct training
data subsets.
- Abstract(参考訳): ITシステムの複雑さが増す中、障害発生時の運用をサポートするソリューションが必要です。
したがって、AIOps(Artificial Intelligence for System Operations)は、学術と産業の両方において、ますます注目されつつある研究分野である。
この領域の主要な問題の1つは、適切なラベル付きデータへのアクセスがないことです。これは、主に法的保護規制または産業機密性によるものです。
この混乱を連合学習の領域から緩和する方法は、トレーニングデータに直接アクセスする必要がない。
オリジナルアプローチでは、すべてのモデルパラメータの周期的集約によるモデル同期を実行するために、中央インスタンスを使用する。
しかし、その機密知識やトレーニングデータを再構築することができるため、訓練されたモデルを公開できないシナリオはたくさんあります。
さらに、中央のインスタンスは信頼される必要があり、単一障害点である。
そこで,我々は,学習モデル間の知識共有を可能にする完全分散手法を提案する。
オリジナルのトレーニングデータもモデルパラメータも送信する必要はない。
この概念は、モデルに割り当てられた教師と学生の役割に依存しており、生徒は合成された入力データを通じて教師の出力に基づいて訓練される。
ログ異常検出のケーススタディを実施している。
その結果,教師が学習した未学習学生モデルが,教師と同等のF1スコアに達することがわかった。
さらに,本手法は,異なる訓練データサブセット上で訓練された複数のモデルの同期を可能にすることを示す。
関連論文リスト
- Update Selective Parameters: Federated Machine Unlearning Based on Model Explanation [46.86767774669831]
モデル説明の概念に基づく、より効率的で効率的なフェデレーション・アンラーニング・スキームを提案する。
我々は、未学習のデータに対して、すでに訓練済みのモデルの中で最も影響力のあるチャネルを選択します。
論文 参考訳(メタデータ) (2024-06-18T11:43:20Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - Fantastic Gains and Where to Find Them: On the Existence and Prospect of
General Knowledge Transfer between Any Pretrained Model [74.62272538148245]
事前訓練されたモデルの任意のペアリングに対して、一方のモデルは他方では利用できない重要なデータコンテキストを抽出する。
このような「補的」な知識を,性能劣化を伴わずに,あるモデルから別のモデルへ伝達できるかどうかを検討する。
論文 参考訳(メタデータ) (2023-10-26T17:59:46Z) - A Survey on Class Imbalance in Federated Learning [6.632451878730774]
フェデレーション学習は、ネットワーク内の複数のクライアントデバイスが、クライアントのデータを直接露出することなく、機械学習モデルを共同でトレーニングすることを可能にする。
連合学習で訓練されたモデルは通常、標準集中学習モードで訓練されたモデルよりもパフォーマンスが悪いことが判明した。
論文 参考訳(メタデータ) (2023-03-21T08:34:23Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [51.8162883997512]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - Synthetic Model Combination: An Instance-wise Approach to Unsupervised
Ensemble Learning [92.89846887298852]
ラベル付きデータのトレーニングセットから学ぶ機会のない、新しいテストデータに対する予測を検討する。
専門家モデルのセットと予測へのアクセスと、トレーニングに使用するデータセットに関する制限された情報を提供すること。
論文 参考訳(メタデータ) (2022-10-11T10:20:31Z) - Application of Federated Learning in Building a Robust COVID-19 Chest
X-ray Classification Model [0.0]
フェデレートラーニング(FL)は、すべてのデータを中央サーバに移動させることなく、AIモデルの一般化を支援する。
我々は、新型コロナウイルスの有無を予測するバイナリ分類問題を解決するために、ディープラーニングモデルを訓練した。
論文 参考訳(メタデータ) (2022-04-22T05:21:50Z) - Decentralized Federated Learning via Mutual Knowledge Transfer [37.5341683644709]
分散型連合学習(DFL)は、モノのインターネット(IoT)システムにおける問題です。
現地のクライアントが学習した知識を相互に転送することでモデルを融合させる相互知識伝達(Def-KT)アルゴリズムを提案します。
MNIST, Fashion-MNIST, CIFAR10データセットに対する実験により,提案アルゴリズムがベースラインDFL法を著しく上回るデータセットを明らかにした。
論文 参考訳(メタデータ) (2020-12-24T01:43:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。