論文の概要: Learning a Discriminant Latent Space with Neural Discriminant Analysis
- arxiv url: http://arxiv.org/abs/2107.06209v1
- Date: Tue, 13 Jul 2021 16:06:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-14 14:51:07.769790
- Title: Learning a Discriminant Latent Space with Neural Discriminant Analysis
- Title(参考訳): ニューラル判別器解析による識別器潜在空間の学習
- Authors: Mai Lan Ha, Gianni Franchi, Emanuel Aldea and Volker Blanz
- Abstract要約: 我々は、ディープ畳み込みニューラルネットワーク(DCNN)のためのニューラル識別分析(NDA)と呼ばれる最適化を提案する。
NDAは、深い特徴をより差別的になるように変換し、様々なタスクのパフォーマンスを改善する。
我々は、NDA最適化を、一般的な教師付き分類、きめ細かい分類、半教師付き学習、分布検出など、さまざまな研究分野において評価する。
- 参考スコア(独自算出の注目度): 7.074386822875744
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Discriminative features play an important role in image and object
classification and also in other fields of research such as semi-supervised
learning, fine-grained classification, out of distribution detection. Inspired
by Linear Discriminant Analysis (LDA), we propose an optimization called Neural
Discriminant Analysis (NDA) for Deep Convolutional Neural Networks (DCNNs). NDA
transforms deep features to become more discriminative and, therefore, improves
the performances in various tasks. Our proposed optimization has two primary
goals for inter- and intra-class variances. The first one is to minimize
variances within each individual class. The second goal is to maximize pairwise
distances between features coming from different classes. We evaluate our NDA
optimization in different research fields: general supervised classification,
fine-grained classification, semi-supervised learning, and out of distribution
detection. We achieve performance improvements in all the fields compared to
baseline methods that do not use NDA. Besides, using NDA, we also surpass the
state of the art on the four tasks on various testing datasets.
- Abstract(参考訳): 識別的特徴は、画像と物体の分類において重要な役割を担い、また分布検出から半教師付き学習、細粒度分類、その他の研究分野において重要な役割を担っている。
線形判別分析 (LDA) に着想を得て, ディープ畳み込みニューラルネットワーク (DCNN) のためのニューラル識別分析 (NDA) という最適化を提案する。
NDAは深い特徴をより差別的へと変換し、様々なタスクのパフォーマンスを改善する。
提案する最適化には,クラス間分散とクラス内分散の2つの主な目標がある。
1つ目は各クラス内の分散を最小化することである。
2つ目の目標は、異なるクラスから来る機能間のペアワイズ距離を最大化することです。
一般教師あり分類,細粒度分類,半教師あり学習,分布検出など,様々な分野におけるnda最適化の評価を行った。
NDAを使用しないベースライン手法と比較して,すべての分野の性能向上を実現している。
さらに、ndaを使用すると、さまざまなテストデータセットの4つのタスクの最先端技術を超えます。
関連論文リスト
- Bi-discriminator Domain Adversarial Neural Networks with Class-Level
Gradient Alignment [87.8301166955305]
そこで本研究では,クラスレベルのアライメントアライメントを有するバイディミネータドメイン対向ニューラルネットワークを提案する。
BACGは、領域分布の整合性を改善するために勾配信号と二階確率推定を利用する。
さらに、対照的な学習にインスパイアされ、トレーニングプロセスを大幅に短縮できるメモリバンクベースの変種であるFast-BACGを開発した。
論文 参考訳(メタデータ) (2023-10-21T09:53:17Z) - Activate and Reject: Towards Safe Domain Generalization under Category
Shift [71.95548187205736]
カテゴリーシフト(DGCS)下における領域一般化の実践的問題について検討する。
未知のクラスサンプルを同時に検出し、ターゲットドメイン内の既知のクラスサンプルを分類することを目的としている。
従来のDGと比較すると,1)ソースクラスのみを用いたトレーニングにおいて,未知の概念を学習する方法,2)ソーストレーニングされたモデルを未知の環境に適応する方法,の2つの新しい課題に直面している。
論文 参考訳(メタデータ) (2023-10-07T07:53:12Z) - Fine-grained Recognition with Learnable Semantic Data Augmentation [68.48892326854494]
きめ細かい画像認識は、長年続くコンピュータビジョンの課題である。
本稿では,識別領域損失問題を軽減するため,特徴レベルのトレーニングデータを多様化することを提案する。
本手法は,いくつかの人気分類ネットワーク上での一般化性能を著しく向上させる。
論文 参考訳(メタデータ) (2023-09-01T11:15:50Z) - A Task-aware Dual Similarity Network for Fine-grained Few-shot Learning [19.90385022248391]
TDSNet(Task-aware Dual similarity Network)は,グローバルな不変機能と識別的局所的詳細を探索する手法である。
TDSNetは、他の最先端アルゴリズムと比較することで、競争性能を達成する。
論文 参考訳(メタデータ) (2022-10-22T04:24:55Z) - Deep face recognition with clustering based domain adaptation [57.29464116557734]
そこで本研究では,ターゲットドメインとソースがクラスを共有しない顔認識タスクを対象とした,クラスタリングに基づく新しいドメイン適応手法を提案する。
本手法は,特徴領域をグローバルに整列させ,その一方で,対象クラスタを局所的に識別することで,識別対象特徴を効果的に学習する。
論文 参考訳(メタデータ) (2022-05-27T12:29:11Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z) - Boosting the Generalization Capability in Cross-Domain Few-shot Learning
via Noise-enhanced Supervised Autoencoder [23.860842627883187]
我々は、新しいノイズ強調型教師付きオートエンコーダ(NSAE)を用いて、特徴分布のより広範なバリエーションを捉えるようモデルに教える。
NSAEは入力を共同で再構築し、入力のラベルと再構成されたペアを予測することによってモデルを訓練する。
また、NSAE構造を利用して、より適応性を高め、対象領域の分類性能を向上させる2段階の微調整手順を提案する。
論文 参考訳(メタデータ) (2021-08-11T04:45:56Z) - Generalized One-Class Learning Using Pairs of Complementary Classifiers [41.64645294104883]
1クラス学習は、単一のクラスでのみアノテーションが利用できるデータにモデルを適合させる古典的な問題である。
本稿では,一級学習の新たな目的を探求し,これを一般化一級識別サブスペース(GODS)と呼ぶ。
論文 参考訳(メタデータ) (2021-06-24T18:52:05Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z) - Enlarging Discriminative Power by Adding an Extra Class in Unsupervised
Domain Adaptation [5.377369521932011]
新たに人工的なクラスを追加し、新しいクラスのGAN生成サンプルとともにデータ上でモデルをトレーニングする。
私たちのアイデアは、DANN、VADA、DIRT-Tといった既存のメソッドと互換性がある、非常に一般的なものです。
論文 参考訳(メタデータ) (2020-02-19T07:58:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。