論文の概要: Federated Learning System without Model Sharing through Integration of
Dimensional Reduced Data Representations
- arxiv url: http://arxiv.org/abs/2011.06803v1
- Date: Fri, 13 Nov 2020 08:12:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 00:19:22.639125
- Title: Federated Learning System without Model Sharing through Integration of
Dimensional Reduced Data Representations
- Title(参考訳): 次元縮小データ表現の統合によるモデル共有のない連合学習システム
- Authors: Anna Bogdanova, Akie Nakai, Yukihiko Okada, Akira Imakura, and Tetsuya
Sakurai
- Abstract要約: 本稿では,教師付き学習タスクに先立って,分散データの次元削減表現を統合可能なフェデレート学習システムを提案する。
画像分類タスクにおけるこのアプローチのパフォーマンスを、集中型機械学習、個別機械学習、フェデレート平均化の3つのフレームワークと比較する。
提案手法は,Federated Averagingと同等の精度で,小規模なユーザ環境でのFederated Averagingよりも優れていることを示す。
- 参考スコア(独自算出の注目度): 6.9485501711137525
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dimensionality Reduction is a commonly used element in a machine learning
pipeline that helps to extract important features from high-dimensional data.
In this work, we explore an alternative federated learning system that enables
integration of dimensionality reduced representations of distributed data prior
to a supervised learning task, thus avoiding model sharing among the parties.
We compare the performance of this approach on image classification tasks to
three alternative frameworks: centralized machine learning, individual machine
learning, and Federated Averaging, and analyze potential use cases for a
federated learning system without model sharing. Our results show that our
approach can achieve similar accuracy as Federated Averaging and performs
better than Federated Averaging in a small-user setting.
- Abstract(参考訳): 次元削減は、高次元データから重要な特徴を抽出するのに役立つ機械学習パイプラインでよく使われる要素である。
本研究では,教師付き学習タスクに先立って,分散データの次元性低減表現を統合可能とし,パーティ間のモデル共有を回避したフェデレーション学習システムについて検討する。
画像分類タスクにおけるこのアプローチの性能を、集中型機械学習、個別機械学習、フェデレーション平均化という3つの代替フレームワークと比較し、モデル共有を伴わないフェデレーション学習システムの潜在的なユースケースを分析した。
提案手法は,Federated Averagingと同等の精度で,小規模なユーザ環境でのFederated Averagingよりも優れていることを示す。
関連論文リスト
- Interpretable Data Fusion for Distributed Learning: A Representative Approach via Gradient Matching [19.193379036629167]
本稿では,複数の生データポイントを仮想表現に変換する分散学習のための代表的アプローチを提案する。
これにより、広範囲なデータセットを消化可能なフォーマットに凝縮し、直感的な人間と機械の相互作用を促進する。
論文 参考訳(メタデータ) (2024-05-06T18:21:41Z) - Personalized Federated Learning via Sequential Layer Expansion in Representation Learning [0.0]
フェデレーション学習は、個々のクライアントデバイス上で分散トレーニングを行い、中央サーバでモデルウェイトのみを共有することによって、クライアントのプライバシを保証する。
本稿では,ディープラーニングモデル全体をより密に分割した部分に分割し,適切なスケジューリング手法を適用した表現学習に基づく新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-04-27T06:37:19Z) - Achieving Transparency in Distributed Machine Learning with Explainable
Data Collaboration [5.994347858883343]
並列的なトレンドは、データにアクセスせずに、他のデータホルダーと協調して機械学習モデルをトレーニングすることです。
本稿では,モデルに依存しない付加的特徴帰属アルゴリズムに基づく説明可能なデータ協調フレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-06T23:53:41Z) - Federated Stochastic Gradient Descent Begets Self-Induced Momentum [151.4322255230084]
Federated Learning(FL)は、モバイルエッジシステムに適用可能な、新興の機械学習手法である。
このような条件下での勾配降下(SGD)への走行は,大域的な集約プロセスに運動量的な項を加えるとみなすことができる。
論文 参考訳(メタデータ) (2022-02-17T02:01:37Z) - Deep Relational Metric Learning [84.95793654872399]
本稿では,画像クラスタリングと検索のためのディープリレーショナルメトリック学習フレームワークを提案する。
我々は、クラス間分布とクラス内分布の両方をモデル化するために、異なる側面から画像を特徴付ける特徴のアンサンブルを学ぶ。
広く使われているCUB-200-2011、Cars196、Stanford Online Productsデータセットの実験は、我々のフレームワークが既存の深層学習方法を改善し、非常に競争力のある結果をもたらすことを示した。
論文 参考訳(メタデータ) (2021-08-23T09:31:18Z) - Clustering augmented Self-Supervised Learning: Anapplication to Land
Cover Mapping [10.720852987343896]
本稿では,自己教師型学習のためのクラスタリングに基づくプレテキストタスクを用いて,土地被覆マッピングの新しい手法を提案する。
社会的に関係のある2つのアプリケーションに対して,本手法の有効性を示す。
論文 参考訳(メタデータ) (2021-08-16T19:35:43Z) - Multi-Pretext Attention Network for Few-shot Learning with
Self-supervision [37.6064643502453]
補助的なサンプルに依存しない自己教師付き学習のための,新しい拡張不要な手法を提案する。
さらに,従来の拡張信頼手法とGCを組み合わせるために,特定の注意機構を利用するマルチテキスト注意ネットワーク(MAN)を提案する。
miniImageNetおよびtieredImageNetデータセット上でMANを幅広く評価し、提案手法が最新(SOTA)関連手法より優れていることを実証した。
論文 参考訳(メタデータ) (2021-03-10T10:48:37Z) - Exploiting Shared Representations for Personalized Federated Learning [54.65133770989836]
本稿では,クライアント間の共有データ表現と,クライアント毎のユニークなローカルヘッダを学習するための,新しいフェデレーション学習フレームワークとアルゴリズムを提案する。
提案アルゴリズムは, クライアント間の分散計算能力を利用して, 表現の更新毎に低次元の局所パラメータに対して, 多数の局所更新を行う。
この結果は、データ分布間の共有低次元表現を学習することを目的とした、幅広い種類の問題に対するフェデレーション学習以上の関心を持っている。
論文 参考訳(メタデータ) (2021-02-14T05:36:25Z) - Edge-assisted Democratized Learning Towards Federated Analytics [67.44078999945722]
本稿では,エッジ支援型民主化学習機構であるEdge-DemLearnの階層的学習構造を示す。
また、Edge-DemLearnを柔軟なモデルトレーニングメカニズムとして検証し、リージョンに分散制御と集約の方法論を構築する。
論文 参考訳(メタデータ) (2020-12-01T11:46:03Z) - Multi-Center Federated Learning [62.57229809407692]
本稿では,フェデレート学習のための新しい多中心集約機構を提案する。
非IIDユーザデータから複数のグローバルモデルを学び、同時にユーザとセンタ間の最適なマッチングを導出する。
ベンチマークデータセットによる実験結果から,本手法はいくつかの一般的なフェデレーション学習法より優れていることが示された。
論文 参考訳(メタデータ) (2020-05-03T09:14:31Z) - Federated Residual Learning [53.77128418049985]
クライアントはローカルモデルを個別に訓練し、サーバ側で共有するモデルと共同で予測を行う。
この新しいフェデレートされた学習フレームワークを使用することで、統合トレーニングが提供するパフォーマンス上のメリットをすべて享受しながら、中央共有モデルの複雑さを最小限にすることができる。
論文 参考訳(メタデータ) (2020-03-28T19:55:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。