論文の概要: Learning efficient structured dictionary for image classification
- arxiv url: http://arxiv.org/abs/2002.03271v2
- Date: Fri, 8 May 2020 01:58:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 14:53:59.758734
- Title: Learning efficient structured dictionary for image classification
- Title(参考訳): 画像分類のための効率的な構造化辞書の学習
- Authors: Zi-Qi Li, Jun Sun, Xiao-Jun Wu and He-Feng Yin
- Abstract要約: 本稿では,トレーニングサンプルの多様性とラベル情報の両方を考慮に入れた,効率的な構造化辞書学習手法を提案する。
ベンチマークデータベースによる実験結果から,ESDLは従来の辞書学習手法よりも優れていることがわかった。
さらに重要なことに、ESDLは幅広いパターン分類タスクに適用できる。
- 参考スコア(独自算出の注目度): 11.45863364570225
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent years have witnessed the success of dictionary learning (DL) based
approaches in the domain of pattern classification. In this paper, we present
an efficient structured dictionary learning (ESDL) method which takes both the
diversity and label information of training samples into account. Specifically,
ESDL introduces alternative training samples into the process of dictionary
learning. To increase the discriminative capability of representation
coefficients for classification, an ideal regularization term is incorporated
into the objective function of ESDL. Moreover, in contrast with conventional DL
approaches which impose computationally expensive L1-norm constraint on the
coefficient matrix, ESDL employs L2-norm regularization term. Experimental
results on benchmark databases (including four face databases and one scene
dataset) demonstrate that ESDL outperforms previous DL approaches. More
importantly, ESDL can be applied in a wide range of pattern classification
tasks.
- Abstract(参考訳): 近年,パターン分類の分野において,辞書学習(DL)に基づくアプローチが成功している。
本稿では,トレーニングサンプルの多様性とラベル情報の両方を考慮した効率的な構造化辞書学習(esdl)手法を提案する。
具体的には、ESDLは辞書学習のプロセスに代替トレーニングサンプルを導入している。
分類のための表現係数の判別能力を高めるために、理想的な正規化項をesdlの目的関数に組み込む。
さらに、計算コストのかかるL1ノルム制約を係数行列に課す従来のDLアプローチとは対照的に、ESDLはL2ノルム正規化項を用いる。
ベンチマークデータベース(4つの顔データベースと1つのシーンデータセットを含む)の実験結果は、ESDLが以前のDLアプローチより優れていることを示している。
さらに重要なことに、ESDLは幅広いパターン分類タスクに適用できる。
関連論文リスト
- Refining Sentence Embedding Model through Ranking Sentences Generation with Large Language Models [60.00178316095646]
多くのNLPタスクには文の埋め込みが不可欠であり、NLIのようなデータセットを使用して強いパフォーマンスを達成する対照的な学習方法がある。
近年の研究では、大きな言語モデル(LLM)を利用して文ペアを生成し、アノテーション依存を減らしている。
本稿では,潜在空間におけるLLMの生成方向を制御する手法を提案する。
複数のベンチマークによる実験により,本手法は文合成に要するコストを最小限に抑えつつ,新たなSOTA性能を実現することを示した。
論文 参考訳(メタデータ) (2025-02-19T12:07:53Z) - Pairwise Difference Learning for Classification [19.221081896134567]
PDL(Pairwise difference learning)は、最近、回帰のための新しいメタラーニング技術として導入されている。
元のトレーニングデータのペアバージョン上で、適切に定義された(バイナリ)分類問題を解くことにより、PDLを分類タスクに向けて拡張する。
PDLの実装はPythonパッケージで簡単に利用でき、公開されています。
論文 参考訳(メタデータ) (2024-06-28T16:20:22Z) - Co-training for Low Resource Scientific Natural Language Inference [65.37685198688538]
遠隔教師付きラベルに分類器のトレーニング力学に基づいて重みを割り当てる新しいコトレーニング手法を提案する。
予測された信頼度に対する任意のしきい値に基づいてサンプルをフィルタリングするのではなく、重要重みを割り当てることにより、自動ラベル付きデータの使用を最大化する。
提案手法は、遠隔監視ベースラインに対するマクロF1の1.5%の改善と、他の強力なSSLベースラインよりも大幅に改善されている。
論文 参考訳(メタデータ) (2024-06-20T18:35:47Z) - RAR: Retrieving And Ranking Augmented MLLMs for Visual Recognition [78.97487780589574]
MLLM(Multimodal Large Language Models)は、細粒度カテゴリの分類において優れている。
本稿では,MLLMの検索とランク付けのための拡張手法を提案する。
提案手法は, 微粒化認識における固有の限界に対処するだけでなく, モデルの包括的知識基盤も維持する。
論文 参考訳(メタデータ) (2024-03-20T17:59:55Z) - Deep Dictionary Learning with An Intra-class Constraint [23.679645826983503]
視覚分類のためのクラス内制約(DDLIC)を用いた新しい深層辞書学習モデルを提案する。
具体的には、クラス内表現が互いに近接するように、異なるレベルにおける中間表現のクラス内コンパクト性制約を設計する。
従来のDDL手法とは異なり、分類段階において、DDLICはトレーニング段階と同じような方法で階層的にグレディな最適化を行う。
論文 参考訳(メタデータ) (2022-07-14T11:54:58Z) - Supervised Dictionary Learning with Auxiliary Covariates [0.0]
Supervised Dictionary Learning (SDL) は、特徴抽出と分類タスクを同時に求める機械学習手法である。
結合因子空間における凸問題としてSDLを持ち上げる新しいフレームワークを提供する。
また, 胸部X線画像から得られた肺炎の指標として, 教師付きトピックモデリングによる文書分類の不均衡にSDLを適用した。
論文 参考訳(メタデータ) (2022-06-14T12:10:03Z) - Always Keep your Target in Mind: Studying Semantics and Improving
Performance of Neural Lexical Substitution [124.99894592871385]
本稿では,従来の言語モデルと最近の言語モデルの両方を用いた語彙置換手法の大規模比較研究を行う。
目的語に関する情報を適切に注入すれば,SOTA LMs/MLMsによるすでに競合する結果がさらに大幅に改善できることを示す。
論文 参考訳(メタデータ) (2022-06-07T16:16:19Z) - A Multi-level Supervised Contrastive Learning Framework for Low-Resource
Natural Language Inference [54.678516076366506]
自然言語推論(NLI)は、自然言語理解において、ますます重要な課題である。
本稿では,低リソースな自然言語推論のためのマルチSCLという,マルチレベルの教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-31T05:54:18Z) - Better Language Model with Hypernym Class Prediction [101.8517004687825]
クラスベース言語モデル (LM) は、コンテキストの疎結合に$n$-gramのLMで対処するために長年開発されてきた。
本研究では,このアプローチをニューラルLMの文脈で再考する。
論文 参考訳(メタデータ) (2022-03-21T01:16:44Z) - Deep Semantic Dictionary Learning for Multi-label Image Classification [3.3989824361632337]
本稿では,辞書学習課題であるマルチラベル画像分類の解法に向けて,革新的な方法を提案する。
Deep Semantic Dictionary Learning(DSDL)という新しいエンドツーエンドモデルが設計されている。
コードとモデルを公開しました。
論文 参考訳(メタデータ) (2020-12-23T06:22:47Z) - DLDL: Dynamic Label Dictionary Learning via Hypergraph Regularization [17.34373273007931]
ラベルなしデータに対するソフトラベル行列を生成するための動的ラベル辞書学習(DLDL)アルゴリズムを提案する。
具体的には、原データ、変換データ、ソフトラベル間の関係の整合性を維持するために、ハイパーグラフ多様体の正規化を用いる。
論文 参考訳(メタデータ) (2020-10-23T14:07:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。