論文の概要: Opportunistic Federated Learning: An Exploration of Egocentric
Collaboration for Pervasive Computing Applications
- arxiv url: http://arxiv.org/abs/2103.13266v1
- Date: Wed, 24 Mar 2021 15:30:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-25 15:47:21.917620
- Title: Opportunistic Federated Learning: An Exploration of Egocentric
Collaboration for Pervasive Computing Applications
- Title(参考訳): opportunistic federated learning: a exploration of egocentric collaboration for pervasive computing applications (英語)
- Authors: Sangsu Lee, Xi Zheng, Jie Hua, Haris Vikalo, Christine Julien
- Abstract要約: 我々は、異なるユーザに属する個々のデバイスが堅牢なモデルを学ぶための新しいアプローチ、機会論的フェデレーションラーニングを定義する。
本稿では,このようなアプローチの実現可能性と限界を考察し,出会い型ペアワイド協調学習を支援する枠組みを策定する。
- 参考スコア(独自算出の注目度): 20.61034787249924
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pervasive computing applications commonly involve user's personal smartphones
collecting data to influence application behavior. Applications are often
backed by models that learn from the user's experiences to provide personalized
and responsive behavior. While models are often pre-trained on massive
datasets, federated learning has gained attention for its ability to train
globally shared models on users' private data without requiring the users to
share their data directly. However, federated learning requires devices to
collaborate via a central server, under the assumption that all users desire to
learn the same model. We define a new approach, opportunistic federated
learning, in which individual devices belonging to different users seek to
learn robust models that are personalized to their user's own experiences.
However, instead of learning in isolation, these models opportunistically
incorporate the learned experiences of other devices they encounter
opportunistically. In this paper, we explore the feasibility and limits of such
an approach, culminating in a framework that supports encounter-based pairwise
collaborative learning. The use of our opportunistic encounter-based learning
amplifies the performance of personalized learning while resisting overfitting
to encountered data.
- Abstract(参考訳): 広範コンピューティングアプリケーションは通常、ユーザの個人スマートフォンがアプリケーションの振る舞いに影響を与えるためにデータを収集する。
アプリケーションは多くの場合、パーソナライズされたレスポンシブな振る舞いを提供するために、ユーザの経験から学ぶモデルによって裏付けられる。
モデルは大量のデータセットで事前トレーニングされることが多いが、フェデレーション学習は、ユーザが直接データを共有する必要なしに、ユーザのプライベートデータ上でグローバルに共有されたモデルをトレーニングできる能力によって注目を集めている。
しかし、連合学習では、すべてのユーザが同じモデルを学習したいという仮定の下で、中央サーバを介してデバイスが協調する必要がある。
異なるユーザに属する個々のデバイスが,ユーザ自身の経験にパーソナライズされた堅牢なモデルを学習しようとする,日和見的連合学習という新たなアプローチを定義した。
しかし、これらのモデルは単独で学習する代わりに、機会的に遭遇する他の機器の学習経験を機会的に取り入れている。
本稿では,このようなアプローチの実現可能性と限界を考察し,出会い型ペアワイド協調学習を支援する枠組みを策定する。
機会論的出会いに基づく学習の使用は、遭遇したデータへの過度な適合に抵抗しながら、パーソナライズされた学習のパフォーマンスを増幅する。
関連論文リスト
- Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Applied Federated Learning: Architectural Design for Robust and
Efficient Learning in Privacy Aware Settings [0.8454446648908585]
古典的な機械学習パラダイムは、中央にユーザーデータの集約を必要とする。
データの集中化は、内部および外部のセキュリティインシデントのリスクを高めることを含むリスクを引き起こす。
差分プライバシーによるフェデレーション学習は、サーバ側の集中化落とし穴を避けるように設計されている。
論文 参考訳(メタデータ) (2022-06-02T00:30:04Z) - Sparsity-aware neural user behavior modeling in online interaction
platforms [2.4036844268502766]
ユーザ行動モデリングのための一般化可能なニューラル表現学習フレームワークを開発する。
問題設定は、トランスダクティブおよびインダクティブな学習シナリオにまたがる。
ユーザの振る舞いを反映した情報のさまざまな側面を活用して、大規模にパーソナライズされた推論を可能にする。
論文 参考訳(メタデータ) (2022-02-28T00:27:11Z) - Personalization Improves Privacy-Accuracy Tradeoffs in Federated
Optimization [57.98426940386627]
局所的な学習とプライベートな集中学習の協調は、総合的に有用であり、精度とプライバシのトレードオフを改善していることを示す。
合成および実世界のデータセットに関する実験により理論的結果について述べる。
論文 参考訳(メタデータ) (2022-02-10T20:44:44Z) - Privacy-Preserving Learning of Human Activity Predictors in Smart
Environments [5.981641988736108]
我々は、最先端のディープニューラルネットワークに基づく手法を用いて、予測された人間の活動モデルを学ぶ。
我々の研究の新たな側面は、学習者が利用できるデータの時間的進化と、利用者が共有するデータを注意深く追跡することである。
論文 参考訳(メタデータ) (2021-01-17T01:04:53Z) - Federated and continual learning for classification tasks in a society
of devices [59.45414406974091]
Light Federated and Continual Consensus (LFedCon2)は、軽量で伝統的な学習者を用いた新しいフェデレーションおよび継続アーキテクチャである。
我々の方法では、スマートフォンやロボットのような無力デバイスが、リアルタイムで、ローカルで、継続的に、自律的に、そしてユーザーから学習することができる。
提案手法をスマートフォン利用者の異種コミュニティに適用し,歩行認識の課題を解決した。
論文 参考訳(メタデータ) (2020-06-12T12:37:03Z) - Multi-Center Federated Learning [62.57229809407692]
本稿では,フェデレート学習のための新しい多中心集約機構を提案する。
非IIDユーザデータから複数のグローバルモデルを学び、同時にユーザとセンタ間の最適なマッチングを導出する。
ベンチマークデータセットによる実験結果から,本手法はいくつかの一般的なフェデレーション学習法より優れていることが示された。
論文 参考訳(メタデータ) (2020-05-03T09:14:31Z) - Federated Residual Learning [53.77128418049985]
クライアントはローカルモデルを個別に訓練し、サーバ側で共有するモデルと共同で予測を行う。
この新しいフェデレートされた学習フレームワークを使用することで、統合トレーニングが提供するパフォーマンス上のメリットをすべて享受しながら、中央共有モデルの複雑さを最小限にすることができる。
論文 参考訳(メタデータ) (2020-03-28T19:55:24Z) - Survey of Personalization Techniques for Federated Learning [0.08594140167290096]
フェデレートされた機械学習は、プライバシを損なうことなく、プライベートな分散データから機械学習モデルを学習することを可能にする。
本稿では、パーソナライズの必要性を強調し、このトピックに関する最近の研究について調査する。
論文 参考訳(メタデータ) (2020-03-19T10:47:55Z) - Three Approaches for Personalization with Applications to Federated
Learning [68.19709953755238]
本稿では,パーソナライゼーションの体系的学習理論について述べる。
学習理論の保証と効率的なアルゴリズムを提供し、その性能を実証する。
全てのアルゴリズムはモデルに依存しず、任意の仮説クラスで機能する。
論文 参考訳(メタデータ) (2020-02-25T01:36:43Z) - Personalized Federated Learning: A Meta-Learning Approach [28.281166755509886]
フェデレートラーニング(Federated Learning)では、複数のコンピューティングユニット(ユーザ)にまたがるモデルをトレーニングすることを目的としています。
本稿では,現在あるいは新規利用者が自身のデータに対して1段階ないし数段階の勾配降下を実行することで,ローカルデータセットに容易に適応できるような,初歩的な共有モデルを見つけることを目標とする,フェデレーション学習のパーソナライズされたバリエーションについて検討する。
論文 参考訳(メタデータ) (2020-02-19T01:08:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。