論文の概要: From Federated Learning to $\mathbb{X}$-Learning: Breaking the Barriers of Decentrality Through Random Walks
- arxiv url: http://arxiv.org/abs/2509.03709v1
- Date: Wed, 03 Sep 2025 20:48:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-05 20:21:09.969594
- Title: From Federated Learning to $\mathbb{X}$-Learning: Breaking the Barriers of Decentrality Through Random Walks
- Title(参考訳): フェデレートラーニングから$\mathbb{X}$-ラーニングへ:ランダムウォークを通して分散の障壁を破る
- Authors: Allan Salihovic, Payam Abdisarabshali, Michael Langberg, Seyyedali Hosseinalipour,
- Abstract要約: $mathbbX$Lは分散学習アーキテクチャであり、分散化の概念を一般化し拡張する。
我々は、$mathbbX$L、グラフ理論、マルコフ連鎖の間の直感的かつ非自明な関係について光を当てた。
- 参考スコア(独自算出の注目度): 14.091644827467078
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We provide our perspective on $\mathbb{X}$-Learning ($\mathbb{X}$L), a novel distributed learning architecture that generalizes and extends the concept of decentralization. Our goal is to present a vision for $\mathbb{X}$L, introducing its unexplored design considerations and degrees of freedom. To this end, we shed light on the intuitive yet non-trivial connections between $\mathbb{X}$L, graph theory, and Markov chains. We also present a series of open research directions to stimulate further research.
- Abstract(参考訳): 我々は、分散学習アーキテクチャを一般化し、分散化の概念を拡張した、新しい分散学習アーキテクチャである$\mathbb{X}$-Learning(\mathbb{X}$L)に対する視点を提供する。
我々のゴールは$\mathbb{X}$Lのビジョンを示し、探索されていない設計の考慮と自由度を導入することである。
この目的のために、$\mathbb{X}$L、グラフ理論、マルコフ連鎖の間の直観的だが非自明な関係について光を当てた。
また、さらなる研究を促進するための一連のオープンな研究指針も提示する。
関連論文リスト
- Learning single-index models via harmonic decomposition [22.919597674245612]
シングルインデックスモデルの学習問題について検討し、mathbbR$のラベルは未知の1次元射影を通してのみbbRd$の入力 $boldsymbolx に依存する。
展開とオンラインSGDに基づく2種類の推定器を導入し、それぞれが最適な複雑性または最適なランタイムを達成する。
論文 参考訳(メタデータ) (2025-06-11T15:59:53Z) - Machine Learning Toric Duality in Brane Tilings [0.0]
4d$mathcalN=1$量子場理論におけるセイベルグ双対性の研究に様々な機械学習手法を適用する。
複雑な赤外双対性のネットワークはそのような理論の空間を相互接続し、それを普遍性類に分割する。
我々は、conifold の $mathbbZ_mtimesmathbbZ_n$ orbifold で実現されたセイベルグ双対理論のクラスを特定するために、完全に連結されたニューラルネットワークを訓練する。
論文 参考訳(メタデータ) (2024-09-23T17:48:14Z) - Foundations and Frontiers of Graph Learning Theory [81.39078977407719]
グラフ学習の最近の進歩は、複雑な構造を持つデータを理解し分析する方法に革命をもたらした。
グラフニューラルネットワーク(GNN)、すなわちグラフ表現を学習するために設計されたニューラルネットワークアーキテクチャは、一般的なパラダイムとなっている。
本稿では,グラフ学習モデルに固有の近似と学習行動に関する理論的基礎とブレークスルーについて概説する。
論文 参考訳(メタデータ) (2024-07-03T14:07:41Z) - Neural network learns low-dimensional polynomials with SGD near the information-theoretic limit [75.4661041626338]
単一インデックス対象関数 $f_*(boldsymbolx) = textstylesigma_*left(langleboldsymbolx,boldsymbolthetarangleright)$ の勾配勾配勾配学習問題について検討する。
SGDに基づくアルゴリズムにより最適化された2層ニューラルネットワークは、情報指数に支配されない複雑さで$f_*$を学習する。
論文 参考訳(メタデータ) (2024-06-03T17:56:58Z) - Revealing Decurve Flows for Generalized Graph Propagation [108.80758541147418]
本研究は,有向グラフと重み付きグラフを用いて,m文を一般化した伝播を定義することによって,従来のメッセージパッシング(中心からグラフ学習)の限界に対処する。
この分野ではじめて、データセットにおける学習された伝播パターンの予備的な探索を含む。
論文 参考訳(メタデータ) (2024-02-13T14:13:17Z) - $\mathbb{VD}$-$\mathbb{GR}$: Boosting $\mathbb{V}$isual
$\mathbb{D}$ialog with Cascaded Spatial-Temporal Multi-Modal
$\mathbb{GR}$aphs [11.748363745275617]
本稿では,事前学習言語モデル(LM)とグラフニューラルネットワーク(GNN)を組み合わせた新しいビジュアルダイアログモデルを提案する。
mathbbVD$-$mathbbGR$のコアとなるのは、空間的時間的マルチモーダルGNNとBERT層を交換する新しい統合メカニズムである。
我々は、$mathbbVD$-$mathbbGR$が4つのデータセットにまたがって新しい最先端の結果を達成することを示す。
論文 参考訳(メタデータ) (2023-10-25T12:25:53Z) - Online Learning with Adversaries: A Differential-Inclusion Analysis [52.43460995467893]
我々は,完全に非同期なオンラインフェデレート学習のための観察行列ベースのフレームワークを提案する。
我々の主な結果は、提案アルゴリズムがほぼ確実に所望の平均$mu.$に収束することである。
新たな差分包摂型2時間スケール解析を用いて,この収束を導出する。
論文 参考訳(メタデータ) (2023-04-04T04:32:29Z) - SQ Lower Bounds for Learning Single Neurons with Massart Noise [40.1662767099183]
マスアートノイズの存在下で単一ニューロンを学習するPAC。
我々は、任意の定数係数内で最適な誤差を近似できる効率的なSQアルゴリズムが存在しないことを証明した。
論文 参考訳(メタデータ) (2022-10-18T15:58:00Z) - A Self-supervised Mixed-curvature Graph Neural Network [76.3790248465522]
自己教師型混合曲率グラフニューラルネットワーク(SelfMGNN)を提案する。
我々は、SelfMGNNが現実の複雑なグラフ構造をキャプチャし、最先端のベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2021-12-10T08:56:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。