論文の概要: Gossiped and Quantized Online Multi-Kernel Learning
- arxiv url: http://arxiv.org/abs/2301.09848v2
- Date: Fri, 28 Apr 2023 18:38:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-02 18:42:29.644418
- Title: Gossiped and Quantized Online Multi-Kernel Learning
- Title(参考訳): Gossiped and Quantized Online Multi-Kernel Learning
- Authors: Tomas Ortega and Hamid Jafarkhani
- Abstract要約: ネットワーク内の各ノードが通信できる限り、分散およびオンラインマルチカーネル学習がサブ線形後悔をもたらすことを示す。
このレターは、これらの結果を非完全連結グラフに拡張するが、これは無線センサーネットワークでよく見られる。
本稿では,ゴシップアルゴリズムを提案し,それがサブ線形後悔を達成できることを示す。
- 参考スコア(独自算出の注目度): 39.057968279167966
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In instances of online kernel learning where little prior information is
available and centralized learning is unfeasible, past research has shown that
distributed and online multi-kernel learning provides sub-linear regret as long
as every pair of nodes in the network can communicate (i.e., the communications
network is a complete graph). In addition, to manage the communication load,
which is often a performance bottleneck, communications between nodes can be
quantized. This letter expands on these results to non-fully connected graphs,
which is often the case in wireless sensor networks. To address this challenge,
we propose a gossip algorithm and provide a proof that it achieves sub-linear
regret. Experiments with real datasets confirm our findings.
- Abstract(参考訳): 事前情報がほとんど得られず、集中学習が不可能なオンラインカーネル学習の場合、過去の研究では、ネットワーク内の全てのノードが通信できる限り、分散およびオンラインマルチカーネル学習がサブ線形後悔をもたらすことが示されている(通信ネットワークは完全なグラフである)。
さらに、しばしばパフォーマンスボトルネックとなる通信負荷を管理するために、ノード間の通信を定量化することができる。
このレターは、これらの結果を非完全連結グラフに拡大し、無線センサーネットワークでよく見られる。
この課題に対処するため,我々はゴシップアルゴリズムを提案し,それを実現する証明を与える。
実データを用いた実験の結果を確認した。
関連論文リスト
- Communication Efficient Distributed Learning for Kernelized Contextual
Bandits [58.78878127799718]
分散環境でのカーネル化されたコンテキスト帯域の学習における通信効率の課題に対処する。
我々は、エージェントが再現されたカーネルヒルベルト空間で協調的に探索できるようにすることにより、非線形報酬写像を考える。
我々は, 後悔とコミュニケーションの両コストにおいて, アルゴリズムがサブ線形レートを達成できることを厳格に証明した。
論文 参考訳(メタデータ) (2022-06-10T01:39:15Z) - Distributed Learning for Time-varying Networks: A Scalable Design [13.657740129012804]
本稿では,スケーラブルなディープニューラルネットワーク(DNN)設計に基づく分散学習フレームワークを提案する。
学習タスクの置換等価性と不変性を利用することで、異なるスケールのクライアントに対して異なるスケールのDNNを構築することができる。
モデルアグリゲーションはこれらの2つのサブマトリクスに基づいて行うことができ、学習の収束と性能を改善することができる。
論文 参考訳(メタデータ) (2021-07-31T12:44:28Z) - Graph-based Deep Learning for Communication Networks: A Survey [1.1977931648859175]
本稿では,通信ネットワークにおけるグラフベースのディープラーニング手法の適用に焦点を当てた最初の調査である。
フォローアップ調査を追跡するために、パブリックGitHubリポジトリが作成され、関連する論文が継続的に更新される。
論文 参考訳(メタデータ) (2021-06-04T14:59:10Z) - Distributed Learning in Wireless Networks: Recent Progress and Future
Challenges [170.35951727508225]
次世代のワイヤレスネットワークは、エッジデバイスが収集するさまざまな種類のデータを分析する多くの機械学習ツールやアプリケーションを可能にする。
エッジデバイスが生データ交換なしでMLモデルを協調的にトレーニングできるようにする手段として,分散学習と推論技術が提案されている。
本稿では,ワイヤレスエッジネットワーク上で分散学習を効率的に効果的に展開する方法を包括的に研究する。
論文 参考訳(メタデータ) (2021-04-05T20:57:56Z) - Computational Separation Between Convolutional and Fully-Connected
Networks [35.39956227364153]
我々は、畳み込みネットワークがデータの局所性をどのように活用し、完全に接続されたネットワークに対して計算上の優位性を実現するかを示す。
具体的には,勾配差を学習した畳み込みネットワークを用いて,効率よく解ける問題群を示す。
論文 参考訳(メタデータ) (2020-10-03T14:24:59Z) - Learning Connectivity of Neural Networks from a Topological Perspective [80.35103711638548]
本稿では,ネットワークを解析のための完全なグラフに表現するためのトポロジ的視点を提案する。
接続の規模を反映したエッジに学習可能なパラメータを割り当てることにより、学習プロセスを異なる方法で行うことができる。
この学習プロセスは既存のネットワークと互換性があり、より大きな検索空間と異なるタスクへの適応性を持っている。
論文 参考訳(メタデータ) (2020-08-19T04:53:31Z) - Curriculum By Smoothing [52.08553521577014]
畳み込みニューラルネットワーク(CNN)は、画像分類、検出、セグメンテーションなどのコンピュータビジョンタスクにおいて顕著な性能を示している。
アンチエイリアスフィルタやローパスフィルタを用いてCNNの機能埋め込みを円滑化するエレガントなカリキュラムベースのスキームを提案する。
トレーニング中に特徴マップ内の情報量が増加するにつれて、ネットワークはデータのより優れた表現を徐々に学習することができる。
論文 参考訳(メタデータ) (2020-03-03T07:27:44Z) - Distributed Learning in the Non-Convex World: From Batch to Streaming
Data, and Beyond [73.03743482037378]
分散学習は、多くの人々が想定する、大規模に接続された世界の重要な方向となっている。
本稿では、スケーラブルな分散処理とリアルタイムデータ計算の4つの重要な要素について論じる。
実践的な問題や今後の研究についても論じる。
論文 参考訳(メタデータ) (2020-01-14T14:11:32Z) - Understanding the Limitations of Network Online Learning [5.925292989496618]
ノードクエリによって部分的に観測されたネットワークを完結させる学習の限界について検討する。
我々はこのクエリ処理をNetwork Online Learningと呼び、NOL*と呼ばれるアルゴリズム群を提示する。
論文 参考訳(メタデータ) (2020-01-09T13:59:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。