論文の概要: Low-rank features based double transformation matrices learning for
image classification
- arxiv url: http://arxiv.org/abs/2201.12351v1
- Date: Fri, 28 Jan 2022 04:31:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-05 09:03:18.211653
- Title: Low-rank features based double transformation matrices learning for
image classification
- Title(参考訳): 画像分類のための低ランク特徴に基づく二重変換行列学習
- Authors: Yu-Hong Cai, Xiao-Jun Wu, Zhe Chen
- Abstract要約: 本稿では,潜在低ランク特徴抽出に基づく二重変換行列学習法を提案する。
複数のデータセットに対する実験は、特に複雑なシナリオにおいて、分類のためのアプローチの有効性を示す。
- 参考スコア(独自算出の注目度): 12.833812156862873
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Linear regression is a supervised method that has been widely used in
classification tasks. In order to apply linear regression to classification
tasks, a technique for relaxing regression targets was proposed. However,
methods based on this technique ignore the pressure on a single transformation
matrix due to the complex information contained in the data. A single
transformation matrix in this case is too strict to provide a flexible
projection, thus it is necessary to adopt relaxation on transformation matrix.
This paper proposes a double transformation matrices learning method based on
latent low-rank feature extraction. The core idea is to use double
transformation matrices for relaxation, and jointly projecting the learned
principal and salient features from two directions into the label space, which
can share the pressure of a single transformation matrix. Firstly, the low-rank
features are learned by the latent low rank representation (LatLRR) method
which processes the original data from two directions. In this process, sparse
noise is also separated, which alleviates its interference on projection
learning to some extent. Then, two transformation matrices are introduced to
process the two features separately, and the information useful for the
classification is extracted. Finally, the two transformation matrices can be
easily obtained by alternate optimization methods. Through such processing,
even when a large amount of redundant information is contained in samples, our
method can also obtain projection results that are easy to classify.
Experiments on multiple data sets demonstrate the effectiveness of our approach
for classification, especially for complex scenarios.
- Abstract(参考訳): 線形回帰は分類タスクで広く使われている教師付き手法である。
分類タスクに線形回帰を適用するために,回帰目標を緩和する手法を提案した。
しかし、この手法に基づく手法は、データに含まれる複雑な情報によって単一の変換行列の圧力を無視する。
この場合、単一の変換行列はフレキシブルな射影を提供するには厳密すぎるため、変換行列に緩和を導入する必要がある。
本稿では,潜在低ランク特徴抽出に基づく二重変換行列学習手法を提案する。
中心となる考え方は、緩和のために二重変換行列を使い、学習した主特徴と正則な特徴を2方向からラベル空間に共同投影し、単一の変換行列の圧力を共有することである。
まず、低ランク特徴を潜在低ランク表現(latlrr)法により学習し、2方向から元のデータを処理する。
このプロセスでは、スパースノイズも分離され、射影学習に対する干渉がある程度軽減される。
そして、2つの変換行列を導入して2つの特徴を別々に処理し、分類に有用な情報を抽出する。
最後に、2つの変換行列は代替最適化法により容易に得ることができる。
このような処理により,サンプル中に大量の冗長情報が含まれている場合でも,分類が容易な投影結果を得ることができる。
複数のデータセットに対する実験は、特に複雑なシナリオにおいて、分類のためのアプローチの有効性を示す。
関連論文リスト
- Efficient Adaptation of Pre-trained Vision Transformer via Householder Transformation [53.88562288388169]
一般的な戦略である。
事前訓練された視覚変換器(ViT)のPEFT(Efficient Fine-Tuning)は、下流タスクにモデルを適応させる。
適応行列を表現するために,Singular Value Decomposition (SVD) にインスパイアされた新しいPEFT手法を提案する。
SVDは行列を左ユニタリ行列、スケーリング値の対角行列、右ユニタリ行列の積に分解する。
論文 参考訳(メタデータ) (2024-10-30T12:08:30Z) - Optimal Matrix-Mimetic Tensor Algebras via Variable Projection [0.0]
行列緩和性(Matrix mimeticity)は、テンソルを、行列に類似した乗算、分解、解析が可能な作用素として解釈することから生じる。
我々は、データの事前の知識に頼ることなく、最適線形写像と対応するテンソル表現を学習する。
可変射影型アルゴリズムの変換と収束解析の独創性理論を提供する。
論文 参考訳(メタデータ) (2024-06-11T04:52:23Z) - Label Learning Method Based on Tensor Projection [82.51786483693206]
テンソルプロジェクション(LLMTP)に基づくラベル学習手法を提案する。
行列射影変換をテンソル射影に拡張し、ビュー間の空間構造情報を活用できるようにする。
さらに、テンソルのSchatten $p$-norm正規化を導入し、異なるビューのクラスタリングラベル行列を可能な限り一貫性を持たせる。
論文 参考訳(メタデータ) (2024-02-26T13:03:26Z) - Optimal Projections for Discriminative Dictionary Learning using the JL-lemma [0.5461938536945723]
次元減少に基づく辞書学習法は、しばしば反復的ランダムプロジェクションを用いている。
本稿では、ジョンソン-リンデンシュトラウス補題を用いて、投影行列をデランドマイズする構成的手法を提案する。
論文 参考訳(メタデータ) (2023-08-27T02:59:59Z) - Memory-Efficient Backpropagation through Large Linear Layers [107.20037639738433]
Transformersのような現代のニューラルネットワークでは、線形層は後方通過時にアクティベーションを保持するために大きなメモリを必要とする。
本研究では,線形層によるバックプロパゲーションを実現するためのメモリ削減手法を提案する。
論文 参考訳(メタデータ) (2022-01-31T13:02:41Z) - Meta-learning for Matrix Factorization without Shared Rows or Columns [39.56814839510978]
提案手法は,行列を入力とするニューラルネットワークを用いて,行列の分解行列の事前分布を生成する。
ニューラルネットワークは、期待される計算誤差を最小限に抑えるようにメタ学習される。
3つのユーザ・イテム評価データセットを用いた実験により,提案手法は未知の行列における限られた数の観測結果から,欠落した値をインプットできることを示した。
論文 参考訳(メタデータ) (2021-06-29T07:40:20Z) - Provably End-to-end Label-Noise Learning without Anchor Points [118.97592870124937]
本稿では,アンカーポイントを使わずにラベルノイズ学習を実現するためのエンドツーエンドフレームワークを提案する。
提案フレームワークでは,クリーンなクラス後確率が十分に分散している場合,遷移行列を同定できる。
論文 参考訳(メタデータ) (2021-02-04T03:59:37Z) - Dual T: Reducing Estimation Error for Transition Matrix in Label-noise
Learning [157.2709657207203]
遷移行列を推定する既存の方法は、ノイズのあるクラス後部を推定することに大きく依存している。
雑音のクラス後部を直接推定するのを避けるために中間クラスを導入する。
この中間クラスにより、元の遷移行列は2つの容易に推定できる遷移行列の積に分解できる。
論文 参考訳(メタデータ) (2020-06-14T05:48:20Z) - Sketching Transformed Matrices with Applications to Natural Language
Processing [76.6222695417524]
本稿では, 変換行列を用いて, 与えられた小さな行列の積を計算するための空間効率のよいスケッチアルゴリズムを提案する。
提案手法は誤差が小さく,空間と時間の両方で効率がよいことを示す。
論文 参考訳(メタデータ) (2020-02-23T03:07:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。