論文の概要: Representation Learning via Cauchy Convolutional Sparse Coding
- arxiv url: http://arxiv.org/abs/2008.03473v1
- Date: Sat, 8 Aug 2020 08:21:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 11:46:03.589863
- Title: Representation Learning via Cauchy Convolutional Sparse Coding
- Title(参考訳): コーシー畳み込みスパース符号化による表現学習
- Authors: Perla Mayo, Oktay Karaku\c{s}, Robin Holmes and Alin Achim
- Abstract要約: 畳み込みスパース符号化(CSC)は、(el)ノルムの忠実度項と、ペナルティを強制するスパーシティの両方を共同最適化することにより、特徴の教師なし学習を可能にする。
本研究では、CSC生成モデルの特徴写像の係数について、仮定されたコーシーから導出される正規化項を用いて検討する。
この事前から生じる空間的ペナルティ項は、その近位演算子によって解決され、特徴写像の係数に対して反復的に要素的に適用され、CSCコスト関数を最適化する。
- 参考スコア(独自算出の注目度): 7.784354802855044
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In representation learning, Convolutional Sparse Coding (CSC) enables
unsupervised learning of features by jointly optimising both an \(\ell_2\)-norm
fidelity term and a sparsity enforcing penalty. This work investigates using a
regularisation term derived from an assumed Cauchy prior for the coefficients
of the feature maps of a CSC generative model. The sparsity penalty term
resulting from this prior is solved via its proximal operator, which is then
applied iteratively, element-wise, on the coefficients of the feature maps to
optimise the CSC cost function. The performance of the proposed Iterative
Cauchy Thresholding (ICT) algorithm in reconstructing natural images is
compared against the common choice of \(\ell_1\)-norm optimised via soft and
hard thresholding. ICT outperforms IHT and IST in most of these reconstruction
experiments across various datasets, with an average PSNR of up to 11.30 and
7.04 above ISTA and IHT respectively.
- Abstract(参考訳): 表現学習において、畳み込みスパース符号化(CSC)は、(\ell_2\)-ノルム忠実度項と、ペナルティを課すスパース性の両方を共同最適化することにより、特徴の教師なし学習を可能にする。
本研究は、csc生成モデルの特徴写像の係数に先立って仮定されたコーシーから導かれる正規化項を用いて検討する。
この前の空間的ペナルティ項は、その近位演算子によって解決され、特徴写像の係数に対して反復的に要素的に適用され、CSCコスト関数を最適化する。
自然画像の再構成におけるイテレーティブ・コーシー・スレッショニング(ICT)アルゴリズムの性能を,ソフト閾値とハード閾値で最適化した \(\ell_1\)-ノルムの共通選択と比較した。
ICTはIHT と IST よりも優れており、ISTA と IHT の上の平均PSNRは 11.30 と 7.04 である。
関連論文リスト
- Adaptive function approximation based on the Discrete Cosine Transform
(DCT) [2.2713084727838115]
本稿では,離散コサイン変換(DCT)の代わりに近似係数を求める教師あり学習について検討する。
余弦基底関数の有限ダイナミクスと勾配性により、正規化リースト平均正方形 (NLMS) のような単純なアルゴリズムはその恩恵を受けることができる。
この論文は、1973年にNasir Ahmed氏によるDCT出版50周年を記念している。
論文 参考訳(メタデータ) (2023-09-01T15:31:26Z) - Decoupled Training for Long-Tailed Classification With Stochastic
Representations [15.990318581975435]
表現学習と学習の分離は,長期データを用いた分類に有効であることが示されている。
まず、ディープニューラルネットワークの一般化を改善するための最適化手法であるウェイト平均化(SWA)を適用し、長い尾の分類のためのより優れた一般化特徴抽出器を得る。
そこで我々は,SWA-Gaussian,Gaussian SWA,および自己蒸留戦略から得られた摂動表現に基づく新しい分類器再学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-04-19T05:35:09Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Reinforcement Learning from Partial Observation: Linear Function Approximation with Provable Sample Efficiency [111.83670279016599]
部分観察決定過程(POMDP)の無限観測および状態空間を用いた強化学習について検討した。
線形構造をもつPOMDPのクラスに対する部分可観測性と関数近似の最初の試みを行う。
論文 参考訳(メタデータ) (2022-04-20T21:15:38Z) - Contrastive Conditional Neural Processes [45.70735205041254]
条件付きニューラル・プロセス(CNP)は、メタラーニング環境下でのプロセスの機能に近い確率的推論でニューラルネットワークをブリッジする。
2つの補助的コントラスト分岐が階層的に設定される。すなわち、インストラクテーション時間的コントラスト学習(tt TCL)とクロスストラクテーション関数コントラスト学習(tt FCL)である。
実験により、tt TCLは観測の高レベルの抽象化を捉えるのに対し、tt FCLは基底関数の同定に役立ち、より効率的な表現を提供することを示す。
論文 参考訳(メタデータ) (2022-03-08T10:08:45Z) - Adversarial Feature Augmentation and Normalization for Visual
Recognition [109.6834687220478]
最近のコンピュータビジョンの進歩は、分類モデルの一般化能力を改善するために、逆データ拡張を利用する。
本稿では,中間的特徴埋め込みにおける敵対的拡張を提唱する効率的かつ効率的な代替手法を提案する。
代表的なバックボーンネットワークを用いて,多様な視覚認識タスクにまたがる提案手法を検証する。
論文 参考訳(メタデータ) (2021-03-22T20:36:34Z) - Out-of-distribution Generalization via Partial Feature Decorrelation [72.96261704851683]
本稿では,特徴分解ネットワークと対象画像分類モデルとを協調的に最適化する,PFDL(Partial Feature Deorrelation Learning)アルゴリズムを提案する。
実世界のデータセットを用いた実験により,OOD画像分類データセットにおけるバックボーンモデルの精度が向上することを示した。
論文 参考訳(メタデータ) (2020-07-30T05:48:48Z) - Fibonacci and k-Subsecting Recursive Feature Elimination [2.741266294612776]
特徴選択は、分類アルゴリズムを高速化する可能性のあるデータマイニングタスクである。
本稿では、Fibonacciとk-Subsecting Recursive Feature Eliminationという2つの新しいアルゴリズムを提案する。
その結果、Fibonacci と k-Subsecting Recursive Feature Elimination は標準 RFE よりもはるかに高速に機能の小さなサブセットを選択することができることがわかった。
論文 参考訳(メタデータ) (2020-07-29T15:53:04Z) - New advances in enumerative biclustering algorithms with online
partitioning [80.22629846165306]
さらに、数値データセットの列に定数値を持つ最大二クラスタの効率的で完全で正しい非冗長列挙を実現できる二クラスタリングアルゴリズムであるRIn-Close_CVCを拡張した。
改良されたアルゴリズムはRIn-Close_CVC3と呼ばれ、RIn-Close_CVCの魅力的な特性を保ちます。
論文 参考訳(メタデータ) (2020-03-07T14:54:26Z) - Supervised Learning for Non-Sequential Data: A Canonical Polyadic
Decomposition Approach [85.12934750565971]
特徴相互作用の効率的なモデリングは、非順序的タスクに対する教師あり学習の基盤となる。
この問題を緩和するため、モデルパラメータをテンソルとして暗黙的に表現することが提案されている。
表現性を向上するため,任意の高次元特徴ベクトルに特徴写像を適用できるようにフレームワークを一般化する。
論文 参考訳(メタデータ) (2020-01-27T22:38:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。