論文の概要: NPSVC++: Nonparallel Classifiers Encounter Representation Learning
- arxiv url: http://arxiv.org/abs/2402.06010v1
- Date: Thu, 8 Feb 2024 19:12:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-12 19:08:17.485956
- Title: NPSVC++: Nonparallel Classifiers Encounter Representation Learning
- Title(参考訳): NPSVC++:Nonparallel Classifiers Encounter Representation Learning
- Authors: Junhong Zhang, Zhihui Lai, Jie Zhou, Guangfei Liang
- Abstract要約: 我々は多目的最適化に基づくNPSVC++を開発し、NPSVCとその特徴のエンドツーエンド学習を可能にする。
双対性最適化による一般的な学習手順を提案し、2つの適用可能なインスタンスを提供する。
実験では、既存の手法よりも優位性を示し、NPSVC++の有効性を検証する。
- 参考スコア(独自算出の注目度): 36.406162837985136
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper focuses on a specific family of classifiers called nonparallel
support vector classifiers (NPSVCs). Different from typical classifiers, the
training of an NPSVC involves the minimization of multiple objectives,
resulting in the potential concerns of feature suboptimality and class
dependency. Consequently, no effective learning scheme has been established to
improve NPSVCs' performance through representation learning, especially deep
learning. To break this bottleneck, we develop NPSVC++ based on multi-objective
optimization, enabling the end-to-end learning of NPSVC and its features. By
pursuing Pareto optimality, NPSVC++ theoretically ensures feature optimality
across classes, hence effectively overcoming the two issues above. A general
learning procedure via duality optimization is proposed, based on which we
provide two applicable instances, K-NPSVC++ and D-NPSVC++. The experiments show
their superiority over the existing methods and verify the efficacy of NPSVC++.
- Abstract(参考訳): 本稿では,非並列サポートベクトル分類器 (NPSVC) と呼ばれる特定の分類器群に着目した。
典型的な分類器とは異なり、NPSVCの訓練は複数の目的の最小化を伴い、特徴的部分最適化とクラス依存の潜在的な懸念をもたらす。
その結果,表現学習,特に深層学習によるNPSVCの性能向上のための効果的な学習方法が確立されていない。
このボトルネックを克服するために,多目的最適化に基づくNPSVC++を開発し,NPSVCとその特徴のエンドツーエンド学習を可能にする。
Paretoの最適性を追求することで、NPSVC++は理論的にクラス間の機能の最適性を保証する。
k-npsvc++とd-npsvc++の2つの適用例について,双対性最適化による一般的な学習手順を提案する。
実験は既存の手法よりも優れていることを示し、NPSVC++の有効性を検証する。
関連論文リスト
- MOKD: Cross-domain Finetuning for Few-shot Classification via Maximizing Optimized Kernel Dependence [97.93517982908007]
NCCは、ドメイン間数ショットの分類において、少数ショットの分類が可能なメートル法空間を構築するために表現を学ぶことを目的としている。
本稿では,異なるクラスから得られた2つの標本の NCC 学習表現に高い類似性があることを見出した。
ラベル付きデータによって示されるクラスタ構造にマッチするクラス固有の表現の集合を学習するために、最適化されたカーネル依存(MOKD)を最大化する二段階最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-29T05:59:52Z) - Representation Learning via Consistent Assignment of Views over Random
Partitions [0.0]
Consistent Assignment of Views over Random Partitions (CARP) は、表現学習のための自己教師型クラスタリング手法である。
我々は、線形評価、少数ショット分類、k-NN、k-means、画像検索、コピー検出など、多くの標準プロトコルにわたる17のデータセットでCARPの表現能力を評価する。
論文 参考訳(メタデータ) (2023-10-19T12:39:59Z) - Deep Negative Correlation Classification [82.45045814842595]
既存のディープアンサンブル手法は、多くの異なるモデルをナビゲートし、予測を集約する。
深部負相関分類(DNCC)を提案する。
DNCCは、個々の推定器が正確かつ負の相関を持つ深い分類アンサンブルを生成する。
論文 参考訳(メタデータ) (2022-12-14T07:35:20Z) - Improved Algorithms for Neural Active Learning [74.89097665112621]
非パラメトリックストリーミング設定のためのニューラルネットワーク(NN)ベースの能動学習アルゴリズムの理論的および経験的性能を改善する。
本研究では,SOTA(State-of-the-art (State-the-art)) 関連研究で使用されるものよりも,アクティブラーニングに適する人口減少を最小化することにより,2つの後悔の指標を導入する。
論文 参考訳(メタデータ) (2022-10-02T05:03:38Z) - Supervised Contrastive Learning as Multi-Objective Optimization for
Fine-Tuning Large Pre-trained Language Models [3.759936323189417]
教師付きコントラスト学習(SCL)は,ほとんどの分類タスクにおいて優れた性能を発揮することが示されている。
本研究では,RoBERTa言語モデルの微調整フェーズにおける多目的最適化問題としてSCL問題を定式化する。
論文 参考訳(メタデータ) (2022-09-28T15:13:58Z) - Conditional Prompt Learning for Vision-Language Models [107.06776396086471]
近ごろ提案されたContext Optimization (CoOp) は、文脈単語をプロンプトで学習可能なベクトルの集合に変換する。
CoOpは、CoOpよりもはるかに優れたクラスを非表示に一般化し、単一のデータセットを超える有望な転送可能性を示している。
我々の実験によると、CoCoOpはCoOpよりもはるかに優れたクラスに一般化しており、単一のデータセットを超える有望な転送可能性を示している。
論文 参考訳(メタデータ) (2022-03-10T18:59:41Z) - Bridge the Gap between Supervised and Unsupervised Learning for
Fine-Grained Classification [31.7997891193293]
非教師なし視覚分類(FGVC)は、汎用オブジェクト分類(GOC)や人物のリIDよりも難しい。
本稿では,教師付きFGVCと教師なしFGVCのギャップを軽減するために,UFCLと呼ばれるシンプルで効果的で実践的な手法を提案する。
教師なしのFGVC設定では、最先端の結果が得られ、重要な要因と重要なパラメータを解析する。
論文 参考訳(メタデータ) (2022-03-01T13:33:00Z) - MOPS-Net: A Matrix Optimization-driven Network forTask-Oriented 3D Point
Cloud Downsampling [86.42733428762513]
MOPS-Netは行列最適化のための新しい解釈可能な深層学習手法である。
我々はMOPS-Netが様々なタスクに対して最先端の深層学習手法に対して好適な性能が得られることを示す。
論文 参考訳(メタデータ) (2020-05-01T14:01:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。