論文の概要: On the Limit Performance of Floating Gossip
- arxiv url: http://arxiv.org/abs/2302.08413v1
- Date: Thu, 16 Feb 2023 16:42:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-17 13:22:12.865053
- Title: On the Limit Performance of Floating Gossip
- Title(参考訳): 浮遊ゴシップの限界性能について
- Authors: Gianluca Rizzo, Noelia Perez Palma, Marco Ajmone Marsan, and Vincenzo
Mancuso
- Abstract要約: Gossip Learningスキームは、インフラのない方法で機械学習モデルの位置ベースの確率論的進化を実装するために、Floating Contentに依存している。
継続的学習が必要な動的シナリオを考察し,Floating Gossipの限界性能を調査するための平均場アプローチを採用する。
我々のモデルは,機械学習モデルの継続的トレーニングと更新を協調的に実施する上で,Floating Gossipが非常に効果的であることを示している。
- 参考スコア(独自算出の注目度): 6.883143706086789
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we investigate the limit performance of Floating Gossip, a new,
fully distributed Gossip Learning scheme which relies on Floating Content to
implement location-based probabilistic evolution of machine learning models in
an infrastructure-less manner. We consider dynamic scenarios where continuous
learning is necessary, and we adopt a mean field approach to investigate the
limit performance of Floating Gossip in terms of amount of data that users can
incorporate into their models, as a function of the main system parameters.
Different from existing approaches in which either communication or computing
aspects of Gossip Learning are analyzed and optimized, our approach accounts
for the compound impact of both aspects. We validate our results through
detailed simulations, proving good accuracy. Our model shows that Floating
Gossip can be very effective in implementing continuous training and update of
machine learning models in a cooperative manner, based on opportunistic
exchanges among moving users.
- Abstract(参考訳): 本稿では,Floating Gossipの限界性能について検討する。これは,Floating Contentを基盤として,機械学習モデルの位置情報に基づく確率的進化をインフラストラクチャレスで実現するための,完全に分散されたGossip学習方式である。
我々は,連続学習が必要な動的シナリオを考察し,ユーザがモデルに組み込むことのできるデータ量の観点から浮動小数点ゴシップの限界性能を主システムパラメータの関数として検討するために平均場法を適用した。
Gossip Learningのコミュニケーション面やコンピューティング面が分析・最適化されている既存のアプローチとは異なり、当社のアプローチは両面の複合的な影響を考慮に入れている。
より詳細なシミュレーションによる検証を行い,精度を検証した。
本モデルは,移動ユーザ間の機会的交換に基づいて,機械学習モデルの継続的なトレーニングと更新を協調的に実施する上で,Floating Gossipが極めて有効であることを示す。
関連論文リスト
- DETAIL: Task DEmonsTration Attribution for Interpretable In-context Learning [75.68193159293425]
インコンテキスト学習(ICL)により、トランスフォーマーベースの言語モデルでは、パラメータを更新することなく、いくつかの"タスクデモ"で特定のタスクを学習することができる。
ICLの特徴に対処する影響関数に基づく帰属手法DETAILを提案する。
ホワイトボックスモデルで得られた属性スコアがブラックボックスモデルに転送可能であることを示すことにより、モデル性能を向上させる上で、DETAILの広範な適用性を実験的に証明する。
論文 参考訳(メタデータ) (2024-05-22T15:52:52Z) - TrACT: A Training Dynamics Aware Contrastive Learning Framework for Long-tail Trajectory Prediction [7.3292387742640415]
本稿では,よりリッチなトレーニングダイナミックス情報を,原型的コントラスト学習フレームワークに組み込むことを提案する。
我々は,2つの大規模自然主義データセットを用いたアプローチの実証評価を行った。
論文 参考訳(メタデータ) (2024-04-18T23:12:46Z) - Enhancing Fairness and Performance in Machine Learning Models: A Multi-Task Learning Approach with Monte-Carlo Dropout and Pareto Optimality [1.5498930424110338]
本研究では,モデル不確実性を利用した機械学習におけるバイアス軽減手法を提案する。
提案手法では,モンテカルロ・ドロップアウト(MC)と組み合わせたマルチタスク学習(MTL)フレームワークを用いて,保護ラベルに関連する予測の不確実性を評価・緩和する。
論文 参考訳(メタデータ) (2024-04-12T04:17:50Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - ALP: Action-Aware Embodied Learning for Perception [60.64801970249279]
認知のための行動認識型身体学習(ALP)について紹介する。
ALPは、強化学習ポリシーと逆ダイナミクス予測目標を最適化することにより、行動情報を表現学習に組み込む。
ALPは、複数の下流認識タスクにおいて、既存のベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-16T21:51:04Z) - Towards Compute-Optimal Transfer Learning [82.88829463290041]
我々は、事前訓練されたモデルのゼロショット構造化プルーニングにより、性能を最小限に抑えて計算効率を向上させることができると主張している。
その結果,事前訓練されたモデルの畳み込み畳み込みフィルタは,低計算条件下で20%以上の性能向上をもたらす可能性が示唆された。
論文 参考訳(メタデータ) (2023-04-25T21:49:09Z) - Batch Active Learning from the Perspective of Sparse Approximation [12.51958241746014]
アクティブな学習は、機械学習エージェントと人間のアノテーションとのインタラクションを活用することで、効率的なモデルトレーニングを可能にする。
スパース近似の観点からバッチアクティブラーニングを定式化する新しいフレームワークを提案し,提案する。
我々のアクティブラーニング手法は、ラベルのないデータプールから、対応するトレーニング損失関数が、そのフルデータプールに近似するように、情報的サブセットを見つけることを目的としている。
論文 参考訳(メタデータ) (2022-11-01T03:20:28Z) - Learning by Distillation: A Self-Supervised Learning Framework for
Optical Flow Estimation [71.76008290101214]
DistillFlowは光の流れを学ぶための知識蒸留手法である。
KITTIとSintelの両方のデータセット上で、最先端の教師なし学習性能を実現する。
我々のモデルは、KITTI 2015ベンチマークにおけるすべての単分子的手法の中で、第1位にランクされ、Sintel Finalベンチマークで発表されたすべてのメソッドよりも優れています。
論文 参考訳(メタデータ) (2021-06-08T09:13:34Z) - A Variational Infinite Mixture for Probabilistic Inverse Dynamics
Learning [34.90240171916858]
確率的局所モデルの無限混合に対する効率的な変分ベイズ推論手法を開発した。
我々は、データ駆動適応、高速予測、不連続関数とヘテロセダスティックノイズに対処する能力の組み合わせにおけるモデルのパワーを強調した。
学習したモデルを用いてBarrett-WAMマニピュレータのオンライン動的制御を行い、軌道追跡性能を大幅に改善した。
論文 参考訳(メタデータ) (2020-11-10T16:15:13Z) - Learning Diverse Representations for Fast Adaptation to Distribution
Shift [78.83747601814669]
本稿では,複数のモデルを学習する手法を提案する。
分散シフトへの迅速な適応を促進するフレームワークの能力を実証する。
論文 参考訳(メタデータ) (2020-06-12T12:23:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。