論文の概要: TTOpt: A Maximum Volume Quantized Tensor Train-based Optimization and
its Application to Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2205.00293v1
- Date: Sat, 30 Apr 2022 15:41:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-04 09:38:11.843332
- Title: TTOpt: A Maximum Volume Quantized Tensor Train-based Optimization and
its Application to Reinforcement Learning
- Title(参考訳): ttopt: 最大量量子化テンソルトレインに基づく最適化とその強化学習への応用
- Authors: Konstantin Sozykin, Andrei Chertkov, Roman Schutski, Anh-Huy Phan,
Andrzej Cichocki, Ivan Oseledets
- Abstract要約: 本稿では,効率的な量子化テンソルトレイン表現と一般化最大行列体積原理を組み合わせた新しい最適化手法を提案する。
提案アルゴリズムは,一般的な進化的手法と比較し,機能評価数や実行時間よりも優れている。
- 参考スコア(独自算出の注目度): 20.142717593057558
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a novel procedure for optimization based on the combination of
efficient quantized tensor train representation and a generalized maximum
matrix volume principle. We demonstrate the applicability of the new Tensor
Train Optimizer (TTOpt) method for various tasks, ranging from minimization of
multidimensional functions to reinforcement learning. Our algorithm compares
favorably to popular evolutionary-based methods and outperforms them by the
number of function evaluations or execution time, often by a significant
margin.
- Abstract(参考訳): 本稿では,効率的な量子化テンソル列表現と一般化最大行列体積原理を組み合わせた最適化手法を提案する。
本稿では,多次元関数の最小化から強化学習まで,様々なタスクに対する新しいテンソルトレインオプティマイザ(ttopt)法の適用性を示す。
我々のアルゴリズムは、一般的な進化的手法と好意的に比較し、関数評価や実行時間、しばしば大きなマージンでそれらを上回ります。
関連論文リスト
- Unlearning as multi-task optimization: A normalized gradient difference approach with an adaptive learning rate [105.86576388991713]
正規化勾配差(NGDiff)アルゴリズムを導入し、目的間のトレードオフをよりよく制御できるようにする。
本研究では,TOFUおよびMUSEデータセットにおける最先端の未学習手法において,NGDiffの優れた性能を実証的に実証し,理論的解析を行った。
論文 参考訳(メタデータ) (2024-10-29T14:41:44Z) - A Margin-Maximizing Fine-Grained Ensemble Method [42.44032031918387]
マルジン最大化ファイングラインドアンサンブル法(Margin-Maximizing Fine-Grained Ensemble Method)を提案する。
少数の学習者を巧みに最適化し、一般化能力を向上させることで、大規模アンサンブルを超えるパフォーマンスを実現する。
本手法は,基礎学習者の10分の1と,他の最先端のアンサンブル手法を用いて,従来のランダム林よりも優れていた。
論文 参考訳(メタデータ) (2024-09-19T15:48:12Z) - Denoising Pre-Training and Customized Prompt Learning for Efficient Multi-Behavior Sequential Recommendation [69.60321475454843]
マルチビヘイビアシークエンシャルレコメンデーションに適した,最初の事前学習および迅速な学習パラダイムであるDPCPLを提案する。
事前学習段階において,複数の時間スケールでノイズを除去する新しい行動マイナ (EBM) を提案する。
次に,提案するCustomized Prompt Learning (CPL)モジュールを用いて,事前学習したモデルを高効率にチューニングすることを提案する。
論文 参考訳(メタデータ) (2024-08-21T06:48:38Z) - Analyzing and Enhancing the Backward-Pass Convergence of Unrolled
Optimization [50.38518771642365]
ディープネットワークにおけるコンポーネントとしての制約付き最適化モデルの統合は、多くの専門的な学習タスクに有望な進歩をもたらした。
この設定における中心的な課題は最適化問題の解によるバックプロパゲーションであり、しばしば閉形式を欠いている。
本稿では, 非線形最適化の後方通過に関する理論的知見を提供し, 特定の反復法による線形システムの解と等価であることを示す。
Folded Optimizationと呼ばれるシステムが提案され、非ローリングなソルバ実装からより効率的なバックプロパゲーションルールを構築する。
論文 参考訳(メタデータ) (2023-12-28T23:15:18Z) - Mechanic: A Learning Rate Tuner [52.4242550204696]
我々は,任意の基本最適化アルゴリズムの学習率尺度係数を調整し,自動的にスケジュールする手法を導入し,それをテクスチャメカニックと呼ぶ。
各種バッチサイズ,スケジュール,基本最適化アルゴリズムを用いて,大規模深層学習タスクにおけるテクスチャメカニックを厳格に評価する。
論文 参考訳(メタデータ) (2023-05-31T19:32:43Z) - Towards Compute-Optimal Transfer Learning [82.88829463290041]
我々は、事前訓練されたモデルのゼロショット構造化プルーニングにより、性能を最小限に抑えて計算効率を向上させることができると主張している。
その結果,事前訓練されたモデルの畳み込み畳み込みフィルタは,低計算条件下で20%以上の性能向上をもたらす可能性が示唆された。
論文 参考訳(メタデータ) (2023-04-25T21:49:09Z) - Transformer-Based Learned Optimization [37.84626515073609]
ニューラルネットワークを用いて計算の更新ステップを表現できる学習最適化手法を提案する。
私たちの革新は、古典的なBFGSアルゴリズムにインスパイアされた、新しいニューラルネットワークアーキテクチャです。
最適化アルゴリズムの評価に伝統的に用いられてきた目的関数からなるベンチマークにおいて,提案手法の利点を実証する。
論文 参考訳(メタデータ) (2022-12-02T09:47:08Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - An intelligent algorithmic trading based on a risk-return reinforcement
learning algorithm [0.0]
本稿では,改良された深部強化学習アルゴリズムを用いたポートフォリオ最適化モデルを提案する。
提案アルゴリズムはアクター・クリティカル・アーキテクチャに基づいており、クリティカル・ネットワークの主な課題はポートフォリオ累積リターンの分布を学習することである。
Ape-xと呼ばれるマルチプロセスを用いて、深層強化学習訓練の高速化を図る。
論文 参考訳(メタデータ) (2022-08-23T03:20:06Z) - Teaching Networks to Solve Optimization Problems [13.803078209630444]
反復解法をトレーニング可能なパラメトリック集合関数に置き換えることを提案する。
このようなパラメトリックな(集合)関数を学習することで、様々な古典的最適化問題を解くことができることを示す。
論文 参考訳(メタデータ) (2022-02-08T19:13:13Z) - Meta Learning Black-Box Population-Based Optimizers [0.0]
人口ベースのブラックボックス一般化を推論するメタラーニングの利用を提案する。
メタロス関数は,学習アルゴリズムが検索動作を変更することを促進し,新たなコンテキストに容易に適合できることを示す。
論文 参考訳(メタデータ) (2021-03-05T08:13:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。