論文の概要: An Adam-adjusting-antennae BAS Algorithm for Refining Latent Factors
- arxiv url: http://arxiv.org/abs/2208.06603v1
- Date: Sat, 13 Aug 2022 09:05:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-16 14:15:25.814110
- Title: An Adam-adjusting-antennae BAS Algorithm for Refining Latent Factors
- Title(参考訳): 遅延因子精製のためのアダム調整アンテナBASアルゴリズム
- Authors: Yuanyi Liu, Jia Chen and Di Wu
- Abstract要約: 本稿では, PSO-incorporated LFAモデルにより得られた潜在因子を改良したAdam-Adjusting-Anennae BAS (A2BAS) 最適化アルゴリズムを提案する。
2つの実高次元行列に対する実験結果から,本アルゴリズムは早期収束問題を効果的に解くことができることを示した。
- 参考スコア(独自算出の注目度): 10.129747457073389
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Extracting the latent information in high-dimensional and incomplete matrices
is an important and challenging issue. The Latent Factor Analysis (LFA) model
can well handle the high-dimensional matrices analysis. Recently, Particle
Swarm Optimization (PSO)-incorporated LFA models have been proposed to tune the
hyper-parameters adaptively with high efficiency. However, the incorporation of
PSO causes the premature problem. To address this issue, we propose a
sequential Adam-adjusting-antennae BAS (A2BAS) optimization algorithm, which
refines the latent factors obtained by the PSO-incorporated LFA model. The
A2BAS algorithm consists of two sub-algorithms. First, we design an improved
BAS algorithm which adjusts beetles' antennae and step-size with Adam; Second,
we implement the improved BAS algorithm to optimize all the row and column
latent factors sequentially. With experimental results on two real
high-dimensional matrices, we demonstrate that our algorithm can effectively
solve the premature convergence issue.
- Abstract(参考訳): 高次元および不完全行列における潜在情報抽出は重要かつ困難な課題である。
潜在因子分析(LFA)モデルは高次元行列解析をうまく扱うことができる。
近年,超パラメータを高効率で適応的に調整するために,PSOを組み込んだLFAモデルが提案されている。
しかし、PSOの組み入れは早めの問題を引き起こす。
この問題に対処するため, PSO-incorporated LFAモデルにより得られた潜在因子を改良したAdam-Adjusting-Anennae BAS (A2BAS) 最適化アルゴリズムを提案する。
A2BASアルゴリズムは2つのサブアルゴリズムからなる。
第1に,カブトムシのアンテナとステップサイズをadamで調整する改良basアルゴリズムを設計,第2に,全行および列潜性因子を順次最適化する改良basアルゴリズムを実装した。
2つの実高次元行列の実験結果から,本アルゴリズムは早期収束問題を効果的に解くことができることを示した。
関連論文リスト
- SGD with Partial Hessian for Deep Neural Networks Optimization [18.78728272603732]
本稿では,チャネルワイドパラメータを更新するための2次行列と,他のパラメータを更新するための1次勾配降下(SGD)アルゴリズムを組み合わせた化合物を提案する。
一階述語と比較して、最適化を支援するためにヘッセン行列からの一定の量の情報を採用するが、既存の二階述語一般化と比較すると、一階述語一般化の性能は不正確である。
論文 参考訳(メタデータ) (2024-03-05T06:10:21Z) - Towards Efficient and Optimal Covariance-Adaptive Algorithms for Combinatorial Semi-Bandits [12.674929126684528]
我々は、プレイヤーがPアクションの中から d 個の基本アイテムを含む集合のパワーセットから選択する半帯域の問題に対処する。
提案手法は半帯域フィードバックを効果的に活用し,帯域フィードバックアプローチより優れていることを示す。
論文 参考訳(メタデータ) (2024-02-23T08:07:54Z) - Dynamic Incremental Optimization for Best Subset Selection [15.8362578568708]
最良のサブセット選択は、多くの学習問題に対する金の標準と見なされている。
主問題構造と双対問題構造に基づいて,効率的な部分集合双対アルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-02-04T02:26:40Z) - Deep Unrolling for Nonconvex Robust Principal Component Analysis [75.32013242448151]
我々はロバスト成分分析のためのアルゴリズムを設計する(A)
行列を低主行列とスパース主行列の和に分解する。
論文 参考訳(メタデータ) (2023-07-12T03:48:26Z) - An Adam-enhanced Particle Swarm Optimizer for Latent Factor Analysis [6.960453648000231]
本稿では,逐次PSOアルゴリズムを用いて潜在因子を改良したAdam-enhanced Hierarchical PSO-LFAモデルを提案する。
4つの実データセットに対する実験結果から,提案モデルがピアで高い予測精度を実現することを示す。
論文 参考訳(メタデータ) (2023-02-23T12:10:59Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Exploring the Algorithm-Dependent Generalization of AUPRC Optimization
with List Stability [107.65337427333064]
AUPRC(Area Under the Precision-Recall Curve)の最適化は、機械学習にとって重要な問題である。
本研究では, AUPRC最適化の単依存一般化における最初の試行について述べる。
3つの画像検索データセットの実験は、我々のフレームワークの有効性と健全性に言及する。
論文 参考訳(メタデータ) (2022-09-27T09:06:37Z) - Adaptive First- and Second-Order Algorithms for Large-Scale Machine
Learning [3.0204520109309843]
機械学習における連続最適化問題に対処する一階法と二階法を考察する。
一階述語の場合、半決定論的から二次正規化への遷移の枠組みを提案する。
本稿では,適応的なサンプリングと適応的なステップサイズを持つ新しい1次アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-11-29T18:10:00Z) - ES-Based Jacobian Enables Faster Bilevel Optimization [53.675623215542515]
バイレベル最適化(BO)は多くの現代の機械学習問題を解決する強力なツールとして生まれてきた。
既存の勾配法では、ヤコビアンあるいはヘッセンベクトル計算による二階微分近似が必要となる。
本稿では,進化戦略(ES)に基づく新しいBOアルゴリズムを提案し,BOの過勾配における応答ヤコビ行列を近似する。
論文 参考訳(メタデータ) (2021-10-13T19:36:50Z) - Joint Deep Reinforcement Learning and Unfolding: Beam Selection and
Precoding for mmWave Multiuser MIMO with Lens Arrays [54.43962058166702]
離散レンズアレイを用いたミリ波マルチユーザマルチインプット多重出力(MU-MIMO)システムに注目が集まっている。
本研究では、DLA を用いた mmWave MU-MIMO システムのビームプリコーディング行列の共同設計について検討する。
論文 参考訳(メタデータ) (2021-01-05T03:55:04Z) - Effective Dimension Adaptive Sketching Methods for Faster Regularized
Least-Squares Optimization [56.05635751529922]
スケッチに基づくL2正規化最小二乗問題の解法を提案する。
我々は、最も人気のあるランダム埋め込みの2つ、すなわちガウス埋め込みとサブサンプリングランダム化アダマール変換(SRHT)を考える。
論文 参考訳(メタデータ) (2020-06-10T15:00:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。