論文の概要: Learning Sparsity and Randomness for Data-driven Low Rank Approximation
- arxiv url: http://arxiv.org/abs/2212.08186v1
- Date: Thu, 15 Dec 2022 23:12:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-19 15:56:55.617733
- Title: Learning Sparsity and Randomness for Data-driven Low Rank Approximation
- Title(参考訳): データ駆動低ランク近似における学習スパーシティとランダム性
- Authors: Tiejin Chen, Yicheng Tao
- Abstract要約: 学習に基づく低階近似アルゴリズムは、スケッチ行列を用いたランダム化低階近似の性能を大幅に向上させることができる。
本稿では,より優れたスパーシリティパターンを学習し,スケッチ行列の値にランダム性を加えるための2つの新しい手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning-based low rank approximation algorithms can significantly improve
the performance of randomized low rank approximation with sketch matrix. With
the learned value and fixed non-zero positions for sketch matrices from
learning-based algorithms, these matrices can reduce the test error of low rank
approximation significantly. However, there is still no good method to learn
non-zero positions as well as overcome the out-of-distribution performance
loss. In this work, we introduce two new methods Learning Sparsity and Learning
Randomness which try to learn a better sparsity patterns and add randomness to
the value of sketch matrix. These two methods can be applied with any
learning-based algorithms which use sketch matrix directly. Our experiments
show that these two methods can improve the performance of previous
learning-based algorithm for both test error and out-of-distribution test error
without adding too much complexity.
- Abstract(参考訳): 学習に基づく低ランク近似アルゴリズムは、スケッチ行列を用いたランダム化低ランク近似の性能を大幅に向上させることができる。
学習に基づくアルゴリズムによるスケッチ行列の学習値と非ゼロ位置の固定により、これらの行列は低階近似のテスト誤差を著しく低減することができる。
しかし、分散性能の損失を克服するだけでなく、ゼロでない位置を学習する良い方法がまだ存在しない。
本研究では,より優れたスパーシティパターンを学習し,スケッチ行列の値にランダム性を加えるために,スパーシティを学習する2つの新しい手法を提案する。
これら2つの手法は、スケッチ行列を直接使用する学習ベースのアルゴリズムでも適用できる。
実験により,これら2つの手法は,複雑すぎることなく,テストエラーと分散テストエラーの両方に対して,従来の学習ベースアルゴリズムの性能を向上できることを示した。
関連論文リスト
- Spectral Entry-wise Matrix Estimation for Low-Rank Reinforcement
Learning [53.445068584013896]
低ランク構造を持つ強化学習(RL)における行列推定問題について検討した。
低ランク帯では、回収される行列は期待される腕の報酬を指定し、低ランクマルコフ決定プロセス(MDP)では、例えばMDPの遷移カーネルを特徴付ける。
簡単なスペクトルベースの行列推定手法は,行列の特異部分空間を効率よく復元し,ほぼ最小の入力誤差を示すことを示す。
論文 参考訳(メタデータ) (2023-10-10T17:06:41Z) - Learning the Positions in CountSketch [49.57951567374372]
本稿では,まずランダムなスケッチ行列に乗じてデータを圧縮し,最適化問題を高速に解くスケッチアルゴリズムについて検討する。
本研究では,ゼロでないエントリの位置を最適化する学習ベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-11T07:28:35Z) - Online Learning Under A Separable Stochastic Approximation Framework [20.26530917721778]
分離可能な近似フレームワークを用いて,機械学習モデルのクラスに対するオンライン学習アルゴリズムを提案する。
提案アルゴリズムは,他の一般的な学習アルゴリズムと比較して,より堅牢でテスト性能が高いことを示す。
論文 参考訳(メタデータ) (2023-05-12T13:53:03Z) - A Log-linear Gradient Descent Algorithm for Unbalanced Binary
Classification using the All Pairs Squared Hinge Loss [0.0]
本稿では,2乗損失と2乗損失の関数表現を新たに提案し,線形時間あるいは対数線形時間で勾配を計算するアルゴリズムを提案する。
我々の新しいアルゴリズムは、以前のアルゴリズムよりも不均衡なデータセットのAUC値が高く、以前よりも大きなバッチサイズを利用できる。
論文 参考訳(メタデータ) (2023-02-21T23:35:00Z) - Towards Diverse Evaluation of Class Incremental Learning: A Representation Learning Perspective [67.45111837188685]
クラスインクリメンタル学習(CIL)アルゴリズムは、インクリメンタルに到着したデータから新しいオブジェクトクラスを継続的に学習することを目的としている。
表現学習における様々な評価プロトコルを用いて,CILアルゴリズムによって訓練されたニューラルネットワークモデルを実験的に解析する。
論文 参考訳(メタデータ) (2022-06-16T11:44:11Z) - Evolving Reinforcement Learning Algorithms [186.62294652057062]
メタラーニング強化学習アルゴリズムの手法を提案する。
学習アルゴリズムはドメインに依存しないため、トレーニング中に見えない新しい環境に一般化することができる。
従来の制御タスク、gridworld型タスク、atariゲームよりも優れた一般化性能を得る2つの学習アルゴリズムに注目した。
論文 参考訳(メタデータ) (2021-01-08T18:55:07Z) - Learning the Positions in CountSketch [51.15935547615698]
本稿では,まずランダムなスケッチ行列に乗じてデータを圧縮し,最適化問題を高速に解くスケッチアルゴリズムについて検討する。
本研究では,ゼロでないエントリの位置を最適化する学習アルゴリズムを提案する。
このアルゴリズムは, 従来よりも低階近似の精度を向上し, 初めて$k$-meansクラスタリングのような他の問題に適用できることを示す。
論文 参考訳(メタデータ) (2020-07-20T05:06:29Z) - Meta-learning with Stochastic Linear Bandits [120.43000970418939]
我々は、よく知られたOFULアルゴリズムの正規化バージョンを実装するバンディットアルゴリズムのクラスを考える。
我々は,タスク数の増加とタスク分散の分散が小さくなると,タスクを個別に学習する上で,我々の戦略が大きな優位性を持つことを理論的および実験的に示す。
論文 参考訳(メタデータ) (2020-05-18T08:41:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。