論文の概要: Deep Convolutional Transform Learning -- Extended version
- arxiv url: http://arxiv.org/abs/2010.01011v1
- Date: Fri, 2 Oct 2020 14:03:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-12 00:50:38.897208
- Title: Deep Convolutional Transform Learning -- Extended version
- Title(参考訳): Deep Convolutional Transform Learning -- 拡張バージョン
- Authors: Jyoti Maggu and Angshul Majumdar and Emilie Chouzenoux and Giovanni
Chierchia
- Abstract要約: この研究は、Deep Convolutional Transform Learning (DCTL)と呼ばれる、教師なしの表現学習技術を導入している。
畳み込み変換を積み重ねることで、我々のアプローチは異なるレイヤで独立したカーネルの集合を学ぶことができる。
教師なしの方法で抽出された機能は、分類やクラスタリングといった機械学習タスクの実行に使用できる。
- 参考スコア(独自算出の注目度): 31.034188573071898
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This work introduces a new unsupervised representation learning technique
called Deep Convolutional Transform Learning (DCTL). By stacking convolutional
transforms, our approach is able to learn a set of independent kernels at
different layers. The features extracted in an unsupervised manner can then be
used to perform machine learning tasks, such as classification and clustering.
The learning technique relies on a well-sounded alternating proximal
minimization scheme with established convergence guarantees. Our experimental
results show that the proposed DCTL technique outperforms its shallow version
CTL, on several benchmark datasets.
- Abstract(参考訳): 本稿では,deep convolutional transform learning (dctl) と呼ばれる新しい教師なし表現学習手法を提案する。
畳み込み変換を積み重ねることで、我々のアプローチは異なる層で独立したカーネルの集合を学習することができる。
教師なしの方法で抽出された機能は、分類やクラスタリングといった機械学習タスクの実行に使用できる。
学習手法は、確立された収束保証を持つ交互の近位最小化スキームに依存する。
実験の結果,提案手法は,いくつかのベンチマークデータセットにおいて,その浅層バージョンCTLよりも優れていることがわかった。
関連論文リスト
- Dilated Convolution with Learnable Spacings [1.8130068086063336]
この論文は、Dilated Convolution with Learnable Spacings (DCLS)法を提示し、評価する。
コンピュータビジョン、音声、音声処理の分野における様々な教師あり学習実験を通じて、DCLS法は、標準および高度な畳み込み技術よりも優れていることを証明した。
論文 参考訳(メタデータ) (2024-08-10T12:12:39Z) - Visual Prompt Tuning in Null Space for Continual Learning [51.96411454304625]
既存のプロンプトチューニング手法は、継続学習(CL)における印象的な性能を示す。
本稿では,従来のタスクの特徴に代表される部分空間に直交する方向のプロンプトを調整し,各タスクを学習することを目的とする。
実際には、即時勾配予測を実装するために、実効的なヌル空間に基づく近似解が提案されている。
論文 参考訳(メタデータ) (2024-06-09T05:57:40Z) - Transformers as Statisticians: Provable In-Context Learning with
In-Context Algorithm Selection [88.23337313766353]
この研究はまず、変換器がICLを実行するための包括的な統計理論を提供する。
コンテクストにおいて、トランスフォーマーは、幅広い種類の標準機械学習アルゴリズムを実装可能であることを示す。
エンフィングル変換器は、異なるベースICLアルゴリズムを適応的に選択することができる。
論文 参考訳(メタデータ) (2023-06-07T17:59:31Z) - Unifying Synergies between Self-supervised Learning and Dynamic
Computation [53.66628188936682]
SSLとDCのパラダイム間の相互作用に関する新しい視点を提示する。
SSL設定において、スクラッチから高密度かつゲートされたサブネットワークを同時に学習することは可能であることを示す。
密集エンコーダとゲートエンコーダの事前学習における共進化は、良好な精度と効率のトレードオフをもたらす。
論文 参考訳(メタデータ) (2023-01-22T17:12:58Z) - Multi-scale and Cross-scale Contrastive Learning for Semantic
Segmentation [5.281694565226513]
セグメンテーションネットワークによって抽出されたマルチスケール特徴の識別能力を高めるために,コントラスト学習を適用した。
まず、エンコーダのマルチスケール表現を共通の特徴空間にマッピングすることにより、教師付き局所言語制約の新しい形式をインスタンス化する。
論文 参考訳(メタデータ) (2022-03-25T01:24:24Z) - Improving the Sample-Complexity of Deep Classification Networks with
Invariant Integration [77.99182201815763]
変換によるクラス内分散に関する事前知識を活用することは、ディープニューラルネットワークのサンプル複雑性を改善するための強力な方法である。
そこで本研究では,アプリケーションの複雑な問題に対処するために,プルーニング法に基づく新しい単項選択アルゴリズムを提案する。
本稿では,Rotated-MNIST,SVHN,CIFAR-10データセットにおけるサンプルの複雑さの改善について述べる。
論文 参考訳(メタデータ) (2022-02-08T16:16:11Z) - A Reinforcement Learning Approach for Sequential Spatial Transformer
Networks [6.585049648605185]
我々は、このタスクをマルコフ決定プロセス(MDP)として定式化し、このシーケンシャルな意思決定問題を解決するためにRLを使用する。
この方法では、サンプリングモジュールの微分可能性に縛られません。
MNISTデータセットとFashion-MNISTデータセットを用いて,本手法の有効性を検証するために,複数の実験を設計する。
論文 参考訳(メタデータ) (2021-06-27T17:41:17Z) - Exploiting Invariance in Training Deep Neural Networks [4.169130102668252]
動物視覚システムの2つの基本的なメカニズムに触発され、ディープニューラルネットワークのトレーニングに不変性を与える特徴変換技術を紹介します。
結果として得られるアルゴリズムはパラメータチューニングを少なくし、初期学習率1.0でうまくトレーニングし、異なるタスクに簡単に一般化する。
ImageNet、MS COCO、Cityscapesデータセットでテストされた当社の提案手法は、トレーニングにより少ないイテレーションを必要とし、すべてのベースラインを大きなマージンで上回り、小規模および大規模のバッチサイズのトレーニングをシームレスに行い、画像分類、オブジェクト検出、セマンティックセグメンテーションの異なるコンピュータビジョンタスクに適用します。
論文 参考訳(メタデータ) (2021-03-30T19:18:31Z) - Exploring Complementary Strengths of Invariant and Equivariant
Representations for Few-Shot Learning [96.75889543560497]
多くの現実世界では、多数のラベル付きサンプルの収集は不可能です。
少ないショット学習はこの問題に対処するための主要なアプローチであり、目的は限られた数のサンプルの存在下で新しいカテゴリに迅速に適応することです。
幾何学的変換の一般集合に対する等分散と不変性を同時に強制する新しい訓練機構を提案する。
論文 参考訳(メタデータ) (2021-03-01T21:14:33Z) - DeConFuse : A Deep Convolutional Transform based Unsupervised Fusion
Framework [29.58965424136611]
本研究では、深層畳み込み変換学習に基づく教師なし融合フレームワークを提案する。
ストック予測とトレーディングの問題に対して,提案手法であるDeConFuseを適用した。
論文 参考訳(メタデータ) (2020-11-09T11:04:09Z) - Prototypical Contrastive Learning of Unsupervised Representations [171.3046900127166]
原型コントラスト学習(Prototypeal Contrastive Learning, PCL)は、教師なし表現学習法である。
PCLは暗黙的にデータのセマンティック構造を学習された埋め込み空間にエンコードする。
PCLは、複数のベンチマークで最先端のインスタンスワイド・コントラスト学習法より優れている。
論文 参考訳(メタデータ) (2020-05-11T09:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。