論文の概要: Message Passing Descent for Efficient Machine Learning
- arxiv url: http://arxiv.org/abs/2102.08110v1
- Date: Tue, 16 Feb 2021 12:22:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-17 14:59:58.403272
- Title: Message Passing Descent for Efficient Machine Learning
- Title(参考訳): 効率的な機械学習のためのメッセージパッシングDescent
- Authors: Francesco Concetti, Michael Chertkov
- Abstract要約: 機械学習におけるbfデータフィッティング(DF)問題に対する反復最適化手法を提案する。
このアプローチは、df問題のbfグラフィカルモデル表現に依存している。
本稿では,モデルDF関数の多項式表現に依存する bf Message Passage Descent アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 4.416484585765027
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a new iterative optimization method for the {\bf Data-Fitting}
(DF) problem in Machine Learning, e.g. Neural Network (NN) training. The
approach relies on {\bf Graphical Model} (GM) representation of the DF problem,
where variables are fitting parameters and factors are associated with the
Input-Output (IO) data. The GM results in the {\bf Belief Propagation}
Equations considered in the {\bf Large Deviation Limit} corresponding to the
practically important case when the number of the IO samples is much larger
than the number of the fitting parameters. We suggest the {\bf Message Passage
Descent} algorithm which relies on the piece-wise-polynomial representation of
the model DF function. In contrast with the popular gradient descent and
related algorithms our MPD algorithm rely on analytic (not automatic)
differentiation, while also (and most importantly) it descents through the
rugged DF landscape by \emph{making non local updates of the parameters} at
each iteration. The non-locality guarantees that the MPD is not trapped in the
local-minima, therefore resulting in better performance than locally-updated
algorithms of the gradient-descent type. We illustrate superior performance of
the algorithm on a Feed-Forward NN with a single hidden layer and a
piece-wise-linear activation function.
- Abstract(参考訳): 本稿では,機械学習における"bf data-fitting} (df)問題に対する新しい反復最適化手法を提案する。
ニューラルネットワーク(NN)のトレーニング。
このアプローチは DF 問題の {\bf Graphical Model} (GM) 表現に依存しており、変数は適合パラメータであり、要素は入力出力 (IO) データに関連付けられている。
GM は IO サンプルの数が適合パラメータの数よりも遥かに大きい場合に、実際に重要な場合に対応する {\bf Large Deviation Limit} で考慮された {\bf Belief Propagation} 方程式を導出する。
本稿では,モデルDF関数の分節的表現に依存した {\bf Message Passage Descent} アルゴリズムを提案する。
一般的な勾配降下と関連するアルゴリズムとは対照的に、MPDアルゴリズムは解析的(自動ではない)微分に依存し、また(そして最も重要な)パラメータの非局所的な更新を各イテレーションで行うことで、頑丈なDFの風景を下降させる。
非局所性は、mpdが局所極小に閉じ込められないことを保証するため、勾配拡散型の局所更新アルゴリズムよりも優れた性能をもたらす。
本研究では,単一の隠れ層と分割線形活性化関数を有するフィードフォワードnnにおいて,アルゴリズムの優れた性能を示す。
関連論文リスト
- A Nonoverlapping Domain Decomposition Method for Extreme Learning Machines: Elliptic Problems [0.0]
エクストリーム・ラーニング・マシン(ELM)は、単一層フィードフォワードニューラルネットワークを用いて偏微分方程式(PDE)を解く手法である。
本稿では,EMMのトレーニング時間を短縮するだけでなく,並列計算にも適する非重複領域分解法(DDM)を提案する。
論文 参考訳(メタデータ) (2024-06-22T23:25:54Z) - Low-rank extended Kalman filtering for online learning of neural
networks from streaming data [71.97861600347959]
非定常データストリームから非線形関数のパラメータを推定するための効率的なオンライン近似ベイズ推定アルゴリズムを提案する。
この方法は拡張カルマンフィルタ (EKF) に基づいているが、新しい低ランク+斜角行列分解法を用いている。
変分推論に基づく手法とは対照的に,本手法は完全に決定論的であり,ステップサイズチューニングを必要としない。
論文 参考訳(メタデータ) (2023-05-31T03:48:49Z) - Communication-Efficient Adam-Type Algorithms for Distributed Data Mining [93.50424502011626]
我々はスケッチを利用した新しい分散Adam型アルゴリズムのクラス(例:SketchedAMSGrad)を提案する。
我々の新しいアルゴリズムは、反復毎に$O(frac1sqrtnT + frac1(k/d)2 T)$の高速収束率を$O(k log(d))$の通信コストで達成する。
論文 参考訳(メタデータ) (2022-10-14T01:42:05Z) - One-Pass Learning via Bridging Orthogonal Gradient Descent and Recursive
Least-Squares [8.443742714362521]
我々は,従来のデータポイントの予測にほとんど変化しない方向にパラメータを変更しながら,すべての新しいデータポイントに完全に適合するワンパス学習アルゴリズムを開発した。
我々のアルゴリズムは、インクリメンタル・プリンシパル・コンポーネント分析(IPCA)を用いてストリーミングデータの構造を利用して、メモリを効率的に利用する。
本実験では,提案手法の有効性をベースラインと比較した。
論文 参考訳(メタデータ) (2022-07-28T02:01:31Z) - Large-scale Optimization of Partial AUC in a Range of False Positive
Rates [51.12047280149546]
ROC曲線 (AUC) の下の領域は、機械学習において最も広く使われている分類モデルのパフォーマンス指標の1つである。
近年の封筒平滑化技術に基づく効率的な近似勾配降下法を開発した。
提案アルゴリズムは,効率のよい解法を欠くランク付けされた範囲損失の和を最小化するためにも利用できる。
論文 参考訳(メタデータ) (2022-03-03T03:46:18Z) - Scaling Structured Inference with Randomization [64.18063627155128]
本稿では、構造化されたモデルを数万の潜在状態に拡張するためにランダム化された動的プログラミング(RDP)のファミリを提案する。
我々の手法は古典的DPベースの推論に広く適用できる。
また、自動微分とも互換性があり、ニューラルネットワークとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-12-07T11:26:41Z) - Graph Signal Restoration Using Nested Deep Algorithm Unrolling [85.53158261016331]
グラフ信号処理は、センサー、社会交通脳ネットワーク、ポイントクラウド処理、グラフネットワークなど、多くのアプリケーションにおいてユビキタスなタスクである。
凸非依存型深部ADMM(ADMM)に基づく2つの復元手法を提案する。
提案手法のパラメータはエンドツーエンドでトレーニング可能である。
論文 参考訳(メタデータ) (2021-06-30T08:57:01Z) - Sliced Iterative Normalizing Flows [7.6146285961466]
我々は,任意の確率分布関数(PDF)を対象のPDFに変換することができる反復型(欲求型)ディープラーニング(DL)アルゴリズムを開発した。
本アルゴリズムの特殊な場合として,データから潜在空間(GIS)にマップする2つの反復正規化フロー(SINF)モデルを導入する。
論文 参考訳(メタデータ) (2020-07-01T18:00:04Z) - A Neural Network Approach for Online Nonlinear Neyman-Pearson
Classification [3.6144103736375857]
論文の中では,オンラインと非線形の両方で初となる新しいNeyman-Pearson(NP)分類器を提案する。
提案する分類器は、オンライン方式でバイナリラベル付きデータストリーム上で動作し、ユーザが指定し、制御可能な偽陽性率の検出能力を最大化する。
提案アルゴリズムは大規模データアプリケーションに適しており,実時間処理による偽陽性率制御性を実現している。
論文 参考訳(メタデータ) (2020-06-14T20:00:25Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。