論文の概要: Distributed support-vector-machine over dynamic balanced directed
networks
- arxiv url: http://arxiv.org/abs/2104.00399v1
- Date: Thu, 1 Apr 2021 11:02:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-02 23:32:59.918442
- Title: Distributed support-vector-machine over dynamic balanced directed
networks
- Title(参考訳): 動的平衡有向ネットワーク上の分散支持ベクトルマシン
- Authors: Mohammadreza Doostmohammadian, Alireza Aghasi, Themistoklis
Charalambous, and Usman A. Khan
- Abstract要約: 分散サポートマシンによるバイナリ分類問題を考察する。
離散ジャンプにおけるネットワークトポロジの変化を取り入れた連続時間アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 10.76210145983805
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we consider the binary classification problem via distributed
Support-Vector-Machines (SVM), where the idea is to train a network of agents,
with limited share of data, to cooperatively learn the SVM classifier for the
global database. Agents only share processed information regarding the
classifier parameters and the gradient of the local loss functions instead of
their raw data. In contrast to the existing work, we propose a continuous-time
algorithm that incorporates network topology changes in discrete jumps. This
hybrid nature allows us to remove chattering that arises because of the
discretization of the underlying CT process. We show that the proposed
algorithm converges to the SVM classifier over time-varying weight balanced
directed graphs by using arguments from the matrix perturbation theory.
- Abstract(参考訳): 本稿では,分散SVM(Support-Vector-Machines)によるバイナリ分類問題を考察し,エージェントのネットワークを限られたデータでトレーニングし,グローバルデータベースのSVM分類器を協調的に学習する。
エージェントは、生のデータではなく、分類器パラメータと局所損失関数の勾配に関する処理情報のみを共有する。
既存の研究とは対照的に,ネットワークトポロジの変化を離散ジャンプに組み込む連続時間アルゴリズムを提案する。
このハイブリッドな性質は、基礎となるCTプロセスの離散化によって生じるチャットの除去を可能にする。
提案アルゴリズムは,行列摂動理論の引数を用いて,時間変化重み付き有向グラフ上でSVM分類器に収束することを示す。
関連論文リスト
- Vanishing Variance Problem in Fully Decentralized Neural-Network Systems [0.8212195887472242]
フェデレートラーニングとゴシップラーニングは、データプライバシの懸念を軽減するために考案された方法論だ。
本研究では,分散補正モデル平均化アルゴリズムを提案する。
シミュレーションの結果,Gossip学習は,フェデレート学習に匹敵する収束効率を実現することができることがわかった。
論文 参考訳(メタデータ) (2024-04-06T12:49:20Z) - Continual-MAE: Adaptive Distribution Masked Autoencoders for Continual Test-Time Adaptation [49.827306773992376]
連続的テスト時間適応(CTTA)は、ソース事前学習モデルから目標分布の連続的な変化に移行するために提案される。
提案手法は,CTTAタスクの分類とセグメンテーションの両方において,最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-12-19T15:34:52Z) - Unsupervised Graph-based Learning Method for Sub-band Allocation in 6G Subnetworks [2.0583251142940377]
グラフベース学習を用いた無線ネットワークにおける周波数サブバンド割り当てのための教師なし手法を提案する。
サブネットワーク配置を競合グラフとしてモデル化し,グラフカラー化とPottsモデルにインスパイアされた教師なし学習アプローチを提案し,サブバンド割り当てを最適化する。
論文 参考訳(メタデータ) (2023-12-13T12:57:55Z) - Skew-Symmetric Adjacency Matrices for Clustering Directed Graphs [5.301300942803395]
カットベースの有向グラフ(グラフ)クラスタリングは、しばしばクラスタ内あるいはクラスタ間の疎結合を見つけることに焦点を当てる。
フローベースのクラスタリングでは、クラスタ間のエッジは一方向を向く傾向にあり、マイグレーションデータ、フードウェブ、トレーディングデータに見出されている。
論文 参考訳(メタデータ) (2022-03-02T20:07:04Z) - Improved Dual Correlation Reduction Network [40.792587861237166]
改良二重相関低減ネットワーク(IDCRN)と呼ばれる新しいディープグラフクラスタリングアルゴリズムを提案する。
クロスビュー特徴相関行列をアイデンティティ行列に近似することにより、特徴の異なる次元間の冗長性を低減できる。
また,グラフ畳み込みネットワーク(GCN)における過度にスムースな問題による表現の崩壊を,伝播正規化項によって回避する。
論文 参考訳(メタデータ) (2022-02-25T07:48:32Z) - Decomposing neural networks as mappings of correlation functions [57.52754806616669]
本研究では,ディープフィードフォワードネットワークによって実装された確率分布のマッピングについて検討する。
ニューラルネットワークで使用できる異なる情報表現と同様に、データに不可欠な統計を識別する。
論文 参考訳(メタデータ) (2022-02-10T09:30:31Z) - Deep Graph Clustering via Dual Correlation Reduction [37.973072977988494]
本稿では,Dual correlation Reduction Network (DCRN) と呼ばれる自己教師型ディープグラフクラスタリング手法を提案する。
提案手法では,まず,サンプルを符号化するシアムネットワークを設計する。次に,クロスビューサンプル相関行列とクロスビュー特徴相関行列をそれぞれ2つのアイデンティティ行列に近似させることで,二重レベルの情報相関を小さくする。
本稿では,GCNの過度なスムース化による表現の崩壊を軽減するために,ネットワークが長距離情報を得るための伝搬正則化項を導入する。
論文 参考訳(メタデータ) (2021-12-29T04:05:38Z) - Decentralized Local Stochastic Extra-Gradient for Variational
Inequalities [125.62877849447729]
我々は、不均一(非IID)で多くのデバイスに分散する問題データを持つ領域上での分散変分不等式(VIs)を考察する。
我々は、完全に分散化された計算の設定を網羅する計算ネットワークについて、非常に一般的な仮定を行う。
理論的には, モノトン, モノトンおよび非モノトンセッティングにおける収束速度を理論的に解析する。
論文 参考訳(メタデータ) (2021-06-15T17:45:51Z) - Gradient Coding with Dynamic Clustering for Straggler-Tolerant
Distributed Learning [55.052517095437]
勾配降下(GD)は、複数の労働者にデータセットを分散することで学習タスクの並列化に広く用いられている。
分散同期gdにおけるイテレーション完了時間ごとの重要なパフォーマンスボトルネックは$straggling$ workersである。
コード化された分散技術は、最近ストラグラーを緩和し、労働者に冗長な計算を割り当てることでgdイテレーションを高速化するために導入された。
本稿では,従来のトラグリング動作に依存する可能性のあるコードの中から,冗長なデータを労働者に割り当てて選択する動的GC方式を提案する。
論文 参考訳(メタデータ) (2021-03-01T18:51:29Z) - Unsupervised Learning for Asynchronous Resource Allocation in Ad-hoc
Wireless Networks [122.42812336946756]
集約グラフニューラルネットワーク(Agg-GNN)に基づく教師なし学習手法を設計する。
アクティベーションパターンを各ノードの特徴としてモデル化し,ポリシーに基づくリソース割り当て手法を訓練することにより,非同期性を捉える。
論文 参考訳(メタデータ) (2020-11-05T03:38:36Z) - Coded Stochastic ADMM for Decentralized Consensus Optimization with Edge
Computing [113.52575069030192]
セキュリティ要件の高いアプリケーションを含むビッグデータは、モバイルデバイスやドローン、車両など、複数の異種デバイスに収集され、格納されることが多い。
通信コストとセキュリティ要件の制限のため、核融合センターにデータを集約するのではなく、分散的に情報を抽出することが最重要となる。
分散エッジノードを介してデータを局所的に処理するマルチエージェントシステムにおいて,モデルパラメータを学習する問題を考える。
分散学習モデルを開発するために,乗算器アルゴリズムの最小バッチ交互方向法(ADMM)のクラスについて検討した。
論文 参考訳(メタデータ) (2020-10-02T10:41:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。