論文の概要: Learning Kernel for Conditional Moment-Matching Discrepancy-based Image
Classification
- arxiv url: http://arxiv.org/abs/2008.10165v1
- Date: Mon, 24 Aug 2020 02:35:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 12:00:40.990841
- Title: Learning Kernel for Conditional Moment-Matching Discrepancy-based Image
Classification
- Title(参考訳): 条件付きモーメントマッチング画像分類のための学習カーネル
- Authors: Chuan-Xian Ren, Pengfei Ge, Dao-Qing Dai, Hong Yan
- Abstract要約: 条件付き最大平均離散性(CMMD)の識別性能向上のための新しいカーネル学習法を提案する。
ディープネットワークの特徴を反復的に操作することができ、略してKLNと表記される。
特に、カーネルベースの類似性はディープネットワーク機能について反復的に学習されており、アルゴリズムをエンドツーエンドで実装することができる。
- 参考スコア(独自算出の注目度): 26.09932710494144
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conditional Maximum Mean Discrepancy (CMMD) can capture the discrepancy
between conditional distributions by drawing support from nonlinear kernel
functions, thus it has been successfully used for pattern classification.
However, CMMD does not work well on complex distributions, especially when the
kernel function fails to correctly characterize the difference between
intra-class similarity and inter-class similarity. In this paper, a new kernel
learning method is proposed to improve the discrimination performance of CMMD.
It can be operated with deep network features iteratively and thus denoted as
KLN for abbreviation. The CMMD loss and an auto-encoder (AE) are used to learn
an injective function. By considering the compound kernel, i.e., the injective
function with a characteristic kernel, the effectiveness of CMMD for data
category description is enhanced. KLN can simultaneously learn a more
expressive kernel and label prediction distribution, thus, it can be used to
improve the classification performance in both supervised and semi-supervised
learning scenarios. In particular, the kernel-based similarities are
iteratively learned on the deep network features, and the algorithm can be
implemented in an end-to-end manner. Extensive experiments are conducted on
four benchmark datasets, including MNIST, SVHN, CIFAR-10 and CIFAR-100. The
results indicate that KLN achieves state-of-the-art classification performance.
- Abstract(参考訳): 条件付き最大平均離散性(CMMD)は、非線形カーネル関数からの支持により条件付き分布間の差を捉えることができ、パターン分類に成功している。
しかし、CMMDは複雑な分布ではうまく機能せず、特にカーネル関数がクラス内類似性とクラス間類似性の違いを正しく特徴づけることができない。
本稿では,CMMDの識別性能を向上させるため,新しいカーネル学習手法を提案する。
ディープネットワークの特徴を反復的に操作することができ、略してKLNと表記される。
CMMD損失とオートエンコーダ(AE)は、インジェクティブ関数の学習に使用される。
複合カーネル、すなわち特性カーネルを持つ注入関数を考えることで、データカテゴリ記述におけるcmmdの有効性が向上する。
KLNは、より表現力のあるカーネルとラベル予測分布を同時に学習できるため、教師付きおよび半教師付き両方の学習シナリオにおける分類性能を改善するために使用できる。
特に、カーネルベースの類似性はディープネットワークの特徴に基づいて反復的に学習され、アルゴリズムはエンドツーエンドで実装できる。
MNIST、SVHN、CIFAR-10、CIFAR-100の4つのベンチマークデータセットで大規模な実験が行われた。
その結果,klnは最先端の分類性能を達成できた。
関連論文リスト
- MOKD: Cross-domain Finetuning for Few-shot Classification via Maximizing Optimized Kernel Dependence [97.93517982908007]
NCCは、ドメイン間数ショットの分類において、少数ショットの分類が可能なメートル法空間を構築するために表現を学ぶことを目的としている。
本稿では,異なるクラスから得られた2つの標本の NCC 学習表現に高い類似性があることを見出した。
ラベル付きデータによって示されるクラスタ構造にマッチするクラス固有の表現の集合を学習するために、最適化されたカーネル依存(MOKD)を最大化する二段階最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-29T05:59:52Z) - Joint Embedding Self-Supervised Learning in the Kernel Regime [21.80241600638596]
自己教師付き学習(SSL)は、データを分類するためのラベルにアクセスすることなく、データの有用な表現を生成する。
我々はこのフレームワークを拡張し,カーネルの機能空間に作用する線形写像によって埋め込みを構築するカーネル手法に基づくアルゴリズムを組み込む。
カーネルモデルを小さなデータセットで分析し、自己教師付き学習アルゴリズムの共通特徴を特定し、下流タスクにおける性能に関する理論的洞察を得る。
論文 参考訳(メタデータ) (2022-09-29T15:53:19Z) - Local Sample-weighted Multiple Kernel Clustering with Consensus
Discriminative Graph [73.68184322526338]
マルチカーネルクラスタリング(MKC)は、ベースカーネルの集合から最適な情報融合を実現するためにコミットされる。
本稿では,新しい局所サンプル重み付きマルチカーネルクラスタリングモデルを提案する。
実験により, LSWMKCはより優れた局所多様体表現を有し, 既存のカーネルやグラフベースのクラスタリングアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2022-07-05T05:00:38Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z) - Learning with convolution and pooling operations in kernel methods [8.528384027684192]
近年の実証研究により、階層的畳み込みカーネルは、画像分類タスクにおけるカーネルメソッドの性能を向上させることが示されている。
畳み込みアーキテクチャにおける近似と一般化の正確な相互作用について検討する。
この結果から,対象関数に適応したアーキテクチャの選択が,サンプルの複雑性を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2021-11-16T09:00:44Z) - Random Features for the Neural Tangent Kernel [57.132634274795066]
完全接続型ReLUネットワークのニューラルタンジェントカーネル(NTK)の効率的な特徴マップ構築を提案する。
得られた特徴の次元は、理論と実践の両方で比較誤差境界を達成するために、他のベースライン特徴マップ構造よりもはるかに小さいことを示しています。
論文 参考訳(メタデータ) (2021-04-03T09:08:12Z) - Domain Adaptive Learning Based on Sample-Dependent and Learnable Kernels [2.1485350418225244]
本稿では,SDLK-DAL(Sample-Dependent and Learnable Kernels)に基づくドメイン適応学習手法を提案する。
我々の研究の最初の貢献は、サンプルに依存して学習可能な正定定値カーネル関数(PDQK)フレームワークを提案することである。
PDQKによって決定されたRKHSがいくつかの最先端のDALアルゴリズムに取って代わる一連の実験を行い、我々のアプローチはより良いパフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-02-18T13:55:06Z) - Graph-Aided Online Multi-Kernel Learning [12.805267089186533]
本稿では, 良好な関数近似を提供する辞書から, データ駆動によるカーネルの選択について検討する。
カーネル間の類似性に基づいて、新しいフレームワークは、カーネルのサブセットの選択を支援するためにグラフを構築し、洗練する。
提案アルゴリズムは、最先端のグラフベースのオンラインMKL代替品と比較して、より厳密なサブ線形後悔を享受する。
論文 参考訳(メタデータ) (2021-02-09T07:43:29Z) - Federated Doubly Stochastic Kernel Learning for Vertically Partitioned
Data [93.76907759950608]
本稿では,垂直分割データに対する2倍のカーネル学習アルゴリズムを提案する。
本稿では,FDSKLがカーネルを扱う場合,最先端のフェデレーション学習手法よりもはるかに高速であることを示す。
論文 参考訳(メタデータ) (2020-08-14T05:46:56Z) - Learning Class Regularized Features for Action Recognition [68.90994813947405]
本稿では,階層活性化のクラスベース正規化を行うクラス正規化手法を提案する。
動作認識に最先端CNNアーキテクチャのクラス正規化ブロックを用いることで,Kineetics,UCF-101,HMDB-51データセットにおいて,それぞれ1.8%,1.2%,1.4%の体系的改善が得られた。
論文 参考訳(メタデータ) (2020-02-07T07:27:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。