論文の概要: Convergence of energy-based learning in linear resistive networks
- arxiv url: http://arxiv.org/abs/2503.00349v1
- Date: Sat, 01 Mar 2025 04:47:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:24:54.197880
- Title: Convergence of energy-based learning in linear resistive networks
- Title(参考訳): 線形抵抗ネットワークにおけるエネルギーベース学習の収束性
- Authors: Anne-Men Huijzer, Thomas Chaffey, Bart Besselink, Henk J. van Waarde,
- Abstract要約: エネルギーベースの学習アルゴリズムはアナログ電子デバイスにおける分散実装に適している。
我々は、線形調整可能な抵抗器のネットワークに適用した、特定のエネルギーに基づく学習アルゴリズムであるContrastive Learningを分析して、この方向への第一歩を踏み出す。
- 参考スコア(独自算出の注目度): 2.9248916859490173
- License:
- Abstract: Energy-based learning algorithms are alternatives to backpropagation and are well-suited to distributed implementations in analog electronic devices. However, a rigorous theory of convergence is lacking. We make a first step in this direction by analysing a particular energy-based learning algorithm, Contrastive Learning, applied to a network of linear adjustable resistors. It is shown that, in this setup, Contrastive Learning is equivalent to projected gradient descent on a convex function, for any step size, giving a guarantee of convergence for the algorithm.
- Abstract(参考訳): エネルギーベースの学習アルゴリズムはバックプロパゲーションの代替であり、アナログ電子デバイスにおける分散実装に適している。
しかし、厳密な収束理論は欠如している。
我々は、線形調整可能な抵抗器のネットワークに適用した、特定のエネルギーに基づく学習アルゴリズムであるContrastive Learningを分析して、この方向への第一歩を踏み出す。
この設定では、コントラスト学習は任意のステップサイズに対して凸関数上の射影勾配降下と等価であり、アルゴリズムの収束を保証することが示されている。
関連論文リスト
- Stochastic Unrolled Federated Learning [85.6993263983062]
本稿では,UnRolled Federated Learning (SURF)を導入する。
提案手法は,この拡張における2つの課題,すなわち,非学習者へのデータセット全体の供給の必要性と,フェデレート学習の分散的性質に対処する。
論文 参考訳(メタデータ) (2023-05-24T17:26:22Z) - Iterative regularization in classification via hinge loss diagonal descent [12.684351703991965]
反復正規化(英: Iterative regularization)は、最近機械学習で人気になった正規化理論における古典的な考え方である。
本稿では,分類の文脈における反復正則化に着目した。
論文 参考訳(メタデータ) (2022-12-24T07:15:26Z) - Stabilizing Q-learning with Linear Architectures for Provably Efficient
Learning [53.17258888552998]
本研究では,線形関数近似を用いた基本的な$Q$-learningプロトコルの探索変種を提案する。
このアルゴリズムの性能は,新しい近似誤差というより寛容な概念の下で,非常に優雅に低下することを示す。
論文 参考訳(メタデータ) (2022-06-01T23:26:51Z) - An Adaptive Gradient Method with Energy and Momentum [0.0]
目的関数の勾配に基づく最適化のための新しいアルゴリズムを提案する。
この方法は実装が簡単で、計算効率が良く、大規模機械学習問題に適している。
論文 参考訳(メタデータ) (2022-03-23T04:48:38Z) - Neural Network Training with Asymmetric Crosspoint Elements [1.0773924713784704]
実用的な抵抗装置の非対称コンダクタンス変調は、従来のアルゴリズムで訓練されたネットワークの分類を著しく劣化させる。
ここでは、ハミルトニアン Descent という代替の完全並列トレーニングアルゴリズムを記述し、実験的に示す。
我々は、なぜデバイス非対称性が従来のトレーニングアルゴリズムと根本的に相容れないのか、新しいアプローチがどのようにそれを有用な機能として利用するのか、という批判的な直感を提供する。
論文 参考訳(メタデータ) (2022-01-31T17:41:36Z) - Optimization schemes for unitary tensor-network circuit [0.0]
本稿では,異なるネットワーク構造を持つユニタリテンソルネットワーク回路の変分最適化について論じる。
アンザッツは、よく開発されたマルチスケールエンタングルメント再正規化アルゴリズムの一般化に基づいて実行される。
本稿では,異なるネットワーク構造に対するベンチマーク計算について述べる。
論文 参考訳(メタデータ) (2020-09-05T21:57:28Z) - MetaSDF: Meta-learning Signed Distance Functions [85.81290552559817]
ニューラルな暗示表現で形状を一般化することは、各関数空間上の学習先行値に比例する。
形状空間の学習をメタラーニング問題として定式化し、勾配に基づくメタラーニングアルゴリズムを利用してこの課題を解決する。
論文 参考訳(メタデータ) (2020-06-17T05:14:53Z) - Training End-to-End Analog Neural Networks with Equilibrium Propagation [64.0476282000118]
本稿では,勾配降下による終端から終端までのアナログニューラルネットワークの学習法を提案する。
数学的には、アナログニューラルネットワークのクラス(非線形抵抗性ネットワークと呼ばれる)がエネルギーベースモデルであることが示される。
我々の研究は、オンチップ学習をサポートする、超高速でコンパクトで低消費電力のニューラルネットワークの新世代の開発を導くことができる。
論文 参考訳(メタデータ) (2020-06-02T23:38:35Z) - Controllable Orthogonalization in Training DNNs [96.1365404059924]
直交性はディープニューラルネットワーク(DNN)のトレーニングに広く用いられている。
本稿では,ニュートン反復(ONI)を用いた計算効率が高く,数値的に安定な直交化法を提案する。
本稿では,画像分類ネットワークの性能向上のために,最適化の利点と表現能力の低下との間に最適なトレードオフを与えるために,直交性を効果的に制御する手法を提案する。
また、ONIは、スペクトル正規化と同様に、ネットワークのリプシッツ連続性を維持することにより、GAN(Generative Adversarial Network)のトレーニングを安定化させることを示した。
論文 参考訳(メタデータ) (2020-04-02T10:14:27Z) - Optimization of Graph Total Variation via Active-Set-based Combinatorial
Reconditioning [48.42916680063503]
本稿では,この問題クラスにおける近位アルゴリズムの適応型事前条件付け手法を提案する。
不活性エッジのネスト・フォレスト分解により局所収束速度が保証されることを示す。
この結果から,局所収束解析は近似アルゴリズムにおける可変指標選択の指針となることが示唆された。
論文 参考訳(メタデータ) (2020-02-27T16:33:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。