論文の概要: Deep Dictionary Learning with An Intra-class Constraint
- arxiv url: http://arxiv.org/abs/2207.06841v1
- Date: Thu, 14 Jul 2022 11:54:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-15 13:07:23.970062
- Title: Deep Dictionary Learning with An Intra-class Constraint
- Title(参考訳): クラス内制約による深層辞書学習
- Authors: Xia Yuan, Jianping Gou, Baosheng Yu, Jiali Yu and Zhang Yi
- Abstract要約: 視覚分類のためのクラス内制約(DDLIC)を用いた新しい深層辞書学習モデルを提案する。
具体的には、クラス内表現が互いに近接するように、異なるレベルにおける中間表現のクラス内コンパクト性制約を設計する。
従来のDDL手法とは異なり、分類段階において、DDLICはトレーニング段階と同じような方法で階層的にグレディな最適化を行う。
- 参考スコア(独自算出の注目度): 23.679645826983503
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, deep dictionary learning (DDL)has attracted a great amount
of attention due to its effectiveness for representation learning and visual
recognition.~However, most existing methods focus on unsupervised deep
dictionary learning, failing to further explore the category information.~To
make full use of the category information of different samples, we propose a
novel deep dictionary learning model with an intra-class constraint (DDLIC) for
visual classification. Specifically, we design the intra-class compactness
constraint on the intermediate representation at different levels to encourage
the intra-class representations to be closer to each other, and eventually the
learned representation becomes more discriminative.~Unlike the traditional DDL
methods, during the classification stage, our DDLIC performs a layer-wise
greedy optimization in a similar way to the training stage. Experimental
results on four image datasets show that our method is superior to the
state-of-the-art methods.
- Abstract(参考訳): 近年,deep dictionary learning (ddl) は表現学習や視覚認識に有効であるため,多くの注目を集めている。
しかし、既存のほとんどの手法は教師なしの深層辞書学習に重点を置いており、カテゴリ情報のさらなる探索には失敗している。
~異なるサンプルのカテゴリ情報を完全に活用するために,視覚分類のためのクラス内制約(ddlic)を用いた新しい深層辞書学習モデルを提案する。
具体的には,中間表現に対するクラス内コンパクト性制約を異なるレベルで設計することにより,クラス内表現が互いに親密になるようにし,最終的には学習表現をより識別する。
~従来のDDL手法とは異なり、分類段階では、DDLICはトレーニング段階と同じような方法で階層的にグレディ最適化を行う。
4つの画像データセットにおける実験結果から,本手法は最先端手法よりも優れていることが示された。
関連論文リスト
- Unified Generative and Discriminative Training for Multi-modal Large Language Models [88.84491005030316]
生成的トレーニングにより、視覚言語モデル(VLM)は様々な複雑なタスクに取り組むことができる。
CLIPのようなモデルで実証された差別的トレーニングは、ゼロショットイメージテキストの分類と検索に優れています。
本稿では,両パラダイムの強みを統合する統一的アプローチを提案する。
論文 参考訳(メタデータ) (2024-11-01T01:51:31Z) - Towards Generative Class Prompt Learning for Fine-grained Visual Recognition [5.633314115420456]
ジェネレーティブ・クラス・プロンプト・ラーニングとコントラスト・マルチクラス・プロンプト・ラーニングを紹介する。
Generative Class Prompt Learningは、学習可能なクラスプロンプトを持つ数ショットの例に条件付けすることで、クラス埋め込みにおける視覚言語相乗性を改善する。
CoMPLeはこの基盤の上に構築されており、クラス間の分離を促進する対照的な学習コンポーネントを導入している。
論文 参考訳(メタデータ) (2024-09-03T12:34:21Z) - Contextuality Helps Representation Learning for Generalized Category Discovery [5.885208652383516]
本稿では、文脈性の概念を活用することにより、一般化カテゴリー発見(GCD)への新たなアプローチを提案する。
我々のモデルでは,コントラスト学習に最も近いコンテキストが使用されるインスタンスレベルと,コントラスト学習を利用するクラスタレベルという,2つのコンテキストレベルを統合している。
文脈情報の統合は、特徴学習を効果的に改善し、その結果、すべてのカテゴリの分類精度が向上する。
論文 参考訳(メタデータ) (2024-07-29T07:30:41Z) - Language-Driven Visual Consensus for Zero-Shot Semantic Segmentation [114.72734384299476]
本稿では,言語駆動型ビジュアルコンセンサス(LDVC)アプローチを提案する。
クラス埋め込みを、その離散的で抽象的な性質からアンカーとして活用し、クラス埋め込みに向けて視覚的特徴を操る。
我々の手法は、目に見えないクラスに対するセグメンテーションモデルの能力を大幅に向上させる。
論文 参考訳(メタデータ) (2024-03-13T11:23:55Z) - CLLD: Contrastive Learning with Label Distance for Text Classificatioin [0.6299766708197883]
コントラストクラスを学習するためのCLLD(Contrastive Learning with Label Distance)を提案する。
CLLDは、ラベルの割り当てに繋がる微妙な違いの中で、柔軟性を保証する。
実験の結果,学習したラベル距離は,クラス間の対立性を緩和することが示唆された。
論文 参考訳(メタデータ) (2021-10-25T07:07:14Z) - Dense Contrastive Visual-Linguistic Pretraining [53.61233531733243]
画像とテキストを共同で表現するマルチモーダル表現学習手法が提案されている。
これらの手法は,大規模マルチモーダル事前学習から高レベルな意味情報を取得することにより,優れた性能を実現する。
そこで本稿では,非バイアスのDense Contrastive Visual-Linguistic Pretrainingを提案する。
論文 参考訳(メタデータ) (2021-09-24T07:20:13Z) - MCDAL: Maximum Classifier Discrepancy for Active Learning [74.73133545019877]
近年の最先端のアクティブラーニング手法は, 主にGAN(Generative Adversarial Networks)をサンプル取得に活用している。
本稿では,MCDAL(Maximum Discrepancy for Active Learning)と呼ぶ新しいアクティブラーニングフレームワークを提案する。
特に,両者の差分を最大化することにより,より厳密な決定境界を学習する2つの補助的分類層を利用する。
論文 参考訳(メタデータ) (2021-07-23T06:57:08Z) - Category Contrast for Unsupervised Domain Adaptation in Visual Tasks [92.9990560760593]
本稿では,視覚的 UDA タスクのインスタンス識別に先立って,セマンティックな事前情報を導入した新しいカテゴリコントラスト手法(CaCo)を提案する。
CaCoは既存のUDAメソッドを補完し、半教師付き学習や教師なしモデル適応などの他の学習設定に一般化可能である。
論文 参考訳(メタデータ) (2021-06-05T12:51:35Z) - Deep Semantic Dictionary Learning for Multi-label Image Classification [3.3989824361632337]
本稿では,辞書学習課題であるマルチラベル画像分類の解法に向けて,革新的な方法を提案する。
Deep Semantic Dictionary Learning(DSDL)という新しいエンドツーエンドモデルが設計されている。
コードとモデルを公開しました。
論文 参考訳(メタデータ) (2020-12-23T06:22:47Z) - DIABLO: Dictionary-based Attention Block for Deep Metric Learning [23.083900077464442]
DIABLOは画像埋め込みのための辞書ベースのアテンション手法である。
視覚的な機能のみを集約することで、よりリッチな表現を生成する。
4つのディープ・メトリック・ラーニング・データセットで実験的に確認されている。
論文 参考訳(メタデータ) (2020-04-30T09:05:56Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。