論文の概要: Learning Explicitly Conditioned Sparsifying Transforms
- arxiv url: http://arxiv.org/abs/2403.03168v1
- Date: Tue, 5 Mar 2024 18:03:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-06 13:49:35.061213
- Title: Learning Explicitly Conditioned Sparsifying Transforms
- Title(参考訳): 明示的条件付きスペーシング変換の学習
- Authors: Andrei P\u{a}tra\c{s}cu, Cristian Rusu, Paul Irofti
- Abstract要約: 本研究では,データ表現の質と学習した変換の条件数を明確に制御するスペーサー変換モデルを提案する。
我々は,本モデルが最先端技術よりも優れた数値挙動を示すことを示す数値実験を通して確認する。
- 参考スコア(独自算出の注目度): 7.335712499936904
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Sparsifying transforms became in the last decades widely known tools for
finding structured sparse representations of signals in certain transform
domains. Despite the popularity of classical transforms such as DCT and
Wavelet, learning optimal transforms that guarantee good representations of
data into the sparse domain has been recently analyzed in a series of papers.
Typically, the conditioning number and representation ability are complementary
key features of learning square transforms that may not be explicitly
controlled in a given optimization model. Unlike the existing approaches from
the literature, in our paper, we consider a new sparsifying transform model
that enforces explicit control over the data representation quality and the
condition number of the learned transforms. We confirm through numerical
experiments that our model presents better numerical behavior than the
state-of-the-art.
- Abstract(参考訳): スパース化変換は、ある変換領域における信号の構造化スパース表現を見つけるための、近年広く知られているツールとなった。
DCTやWaveletのような古典的変換の人気にもかかわらず、データのスパース領域への適切な表現を保証する最適変換の学習は、最近一連の論文で分析されている。
通常、条件付け数と表現能力は、与えられた最適化モデルで明示的に制御されない学習平方変換の重要な特徴である。
文献の既存のアプローチとは異なり,本論文では,データ表現品質と学習された変換の条件数を明示的に制御する新しいスパース化変換モデルについて検討する。
数値実験により,本モデルが最先端よりも優れた数値挙動を示すことを確認した。
関連論文リスト
- Learning on Transformers is Provable Low-Rank and Sparse: A One-layer Analysis [63.66763657191476]
低ランク計算としての効率的な数値学習と推論アルゴリズムはトランスフォーマーに基づく適応学習に優れた性能を持つことを示す。
我々は、等級モデルが適応性を改善しながら一般化にどのように影響するかを分析する。
適切なマグニチュードベースのテストは,テストパフォーマンスに多少依存している,と結論付けています。
論文 参考訳(メタデータ) (2024-06-24T23:00:58Z) - Domain Generalization In Robust Invariant Representation [10.132611239890345]
本稿では,分布外データに基づく不変表現の一般化について検討する。
不変モデルは分布シフトに頑健な非構造潜在表現を学習することを示す。
論文 参考訳(メタデータ) (2023-04-07T00:58:30Z) - Entropy optimized semi-supervised decomposed vector-quantized
variational autoencoder model based on transfer learning for multiclass text
classification and generation [3.9318191265352196]
多クラステキスト分類とテキスト生成のための半教師付き離散潜在変数モデルを提案する。
提案モデルは,量子化変圧器モデルの学習に伝達学習の概念を用いる。
実験結果から,提案モデルが最先端モデルを大幅に上回ったことが示唆された。
論文 参考訳(メタデータ) (2021-11-10T07:07:54Z) - Topographic VAEs learn Equivariant Capsules [84.33745072274942]
本稿では, 地理的に整理された潜伏変数を用いた深部生成モデルを効率的に学習するための新しい手法であるTopographic VAEを紹介する。
このようなモデルでは,MNIST上での桁数クラス,幅,スタイルなどの健全な特徴に応じて,その活性化を組織化することが実際に学べることが示される。
我々は、既存の群同変ニューラルネットワークの能力を拡張して、複素変換に近似した同値性を示す。
論文 参考訳(メタデータ) (2021-09-03T09:25:57Z) - Visformer: The Vision-friendly Transformer [105.52122194322592]
我々は視覚に優しいトランスフォーマーから短縮したvisformerという新しいアーキテクチャを提案する。
同じ計算の複雑さにより、VisformerはTransformerベースのモデルとConvolutionベースのモデルの両方をImageNet分類精度で上回る。
論文 参考訳(メタデータ) (2021-04-26T13:13:03Z) - Exploring Complementary Strengths of Invariant and Equivariant
Representations for Few-Shot Learning [96.75889543560497]
多くの現実世界では、多数のラベル付きサンプルの収集は不可能です。
少ないショット学習はこの問題に対処するための主要なアプローチであり、目的は限られた数のサンプルの存在下で新しいカテゴリに迅速に適応することです。
幾何学的変換の一般集合に対する等分散と不変性を同時に強制する新しい訓練機構を提案する。
論文 参考訳(メタデータ) (2021-03-01T21:14:33Z) - Partitioning signal classes using transport transforms for data analysis
and machine learning [8.111947517189641]
新しいトランスポートベースの変換(CDT、R-CDT、LOT)は、様々な画像およびデータ処理タスクにおいて、その強度と大きなポテンシャルを示している。
この論文はこれらの変換の紹介として役立ち、数学者や他の研究者が理論的基盤とアルゴリズムツールをさらに探求することを奨励する。
論文 参考訳(メタデータ) (2020-08-08T06:12:10Z) - FeatMatch: Feature-Based Augmentation for Semi-Supervised Learning [64.32306537419498]
本稿では,複雑な変換を多様に生成する特徴量に基づく改良・拡張手法を提案する。
これらの変換は、クラスタリングを通じて抽出したクラス内およびクラス間の両方の情報も利用します。
提案手法は,大規模データセットにスケールアップしながら,より小さなデータセットに対して,現在の最先端技術に匹敵するものであることを実証する。
論文 参考訳(メタデータ) (2020-07-16T17:55:31Z) - Learned Multi-layer Residual Sparsifying Transform Model for Low-dose CT
Reconstruction [11.470070927586017]
スパース変換学習は、高度に効率的なスパースコーディングとオペレータ更新ステップを含む。
本稿では,変換領域残基を層上で共分散したMRST学習モデルを提案する。
論文 参考訳(メタデータ) (2020-05-08T02:36:50Z) - On Compositions of Transformations in Contrastive Self-Supervised
Learning [66.15514035861048]
本稿では,コントラスト学習をより広範な変換集合に一般化する。
特定の変換に不変であり、他の変換に特有であることは、効果的なビデオ表現の学習に不可欠である。
論文 参考訳(メタデータ) (2020-03-09T17:56:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。