論文の概要: A Deep Positive-Negative Prototype Approach to Integrated Prototypical Discriminative Learning
- arxiv url: http://arxiv.org/abs/2501.02477v1
- Date: Sun, 05 Jan 2025 08:24:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-07 17:08:28.128762
- Title: A Deep Positive-Negative Prototype Approach to Integrated Prototypical Discriminative Learning
- Title(参考訳): 総合的原型識別学習への深い正負の原型アプローチ
- Authors: Ramin Zarei-Sabzevar, Ahad Harati,
- Abstract要約: 本稿では,PbLと識別手法を組み合わせた新しいDPNPモデルを提案する。
DPNPは特徴空間内のほぼ規則的な位置でプロトタイプを編成でき、より低次元の特徴空間においても競争力のある分類精度を達成できることを示す。
- 参考スコア(独自算出の注目度): 0.30693357740321775
- License:
- Abstract: This paper proposes a novel Deep Positive-Negative Prototype (DPNP) model that combines prototype-based learning (PbL) with discriminative methods to improve class compactness and separability in deep neural networks. While PbL traditionally emphasizes interpretability by classifying samples based on their similarity to representative prototypes, it struggles with creating optimal decision boundaries in complex scenarios. Conversely, discriminative methods effectively separate classes but often lack intuitive interpretability. Toward exploiting advantages of these two approaches, the suggested DPNP model bridges between them by unifying class prototypes with weight vectors, thereby establishing a structured latent space that enables accurate classification using interpretable prototypes alongside a properly learned feature representation. Based on this central idea of unified prototype-weight representation, Deep Positive Prototype (DPP) is formed in the latent space as a representative for each class using off-the-shelf deep networks as feature extractors. Then, rival neighboring class DPPs are treated as implicit negative prototypes with repulsive force in DPNP, which push away DPPs from each other. This helps to enhance inter-class separation without the need for any extra parameters. Hence, through a novel loss function that integrates cross-entropy, prototype alignment, and separation terms, DPNP achieves well-organized feature space geometry, maximizing intra-class compactness and inter-class margins. We show that DPNP can organize prototypes in nearly regular positions within feature space, such that it is possible to achieve competitive classification accuracy even in much lower-dimensional feature spaces. Experimental results on several datasets demonstrate that DPNP outperforms state-of-the-art models, while using smaller networks.
- Abstract(参考訳): 本稿では,PbLと識別手法を組み合わせた新しいDPNPモデルを提案する。
PbLは伝統的に、サンプルを代表プロトタイプと類似性に基づいて分類することで解釈可能性を強調しているが、複雑なシナリオにおいて最適な決定境界を作成するのに苦労している。
逆に、識別的手法は事実上クラスを分離するが、直感的な解釈性に欠けることが多い。
これら2つのアプローチの利点を活かすために,提案するDPNPモデルブリッジは,クラスプロトタイプと重みベクトルを一体化することにより,適切に学習された特徴表現とともに解釈可能なプロトタイプを用いた正確な分類を可能にする構造付き潜在空間を確立する。
統一されたプロトタイプ・ウェイト表現という中心的な考え方に基づいて、Deep Positive Prototype (DPP) は、オフザシェルフディープネットワークを特徴抽出器として、各クラスの代表として潜在空間に形成される。
そして、競合する隣接するクラスDPPは、DPNPにおいて反発力を持つ暗黙の負のプロトタイプとして扱われ、DPPを互いに引き離す。
これにより、余分なパラメータを必要とせずにクラス間の分離を強化することができる。
したがって、クロスエントロピー、プロトタイプアライメント、分離項を統合する新しい損失関数により、DPNPは、クラス内コンパクト性とクラス間マージンを最大化して、よく組織化された特徴空間幾何学を達成する。
DPNPは特徴空間内のほぼ規則的な位置でプロトタイプを編成でき、より低次元の特徴空間においても競争力のある分類精度を達成できることを示す。
いくつかのデータセットの実験結果から、DPNPはより小さなネットワークを使用しながら最先端のモデルより優れていることが示された。
関連論文リスト
- An Enhanced Federated Prototype Learning Method under Domain Shift [36.73020712815063]
Federated Learning (FL)は、プライベートデータを共有することなく、協調的な機械学習トレーニングを可能にする。
最近の論文では、分散対応のデュアルレベルプロトタイプクラスタリングを導入し、新しい$alpha$-sparsityプロトタイプロスを用いる。
Digit-5、Office-10、DomainNetデータセットの評価は、我々の手法が既存のアプローチよりも優れていることを示している。
論文 参考訳(メタデータ) (2024-09-27T09:28:27Z) - Prototype Fission: Closing Set for Robust Open-set Semi-supervised
Learning [6.645479471664253]
半教師なし学習(SSL)は、現実的な大規模教師なしデータセットにおいて、オフ・オブ・ディストリビューション(OOD)サンプルに対して脆弱であることが証明されている。
本稿では,クラスワイド潜在空間をコンパクトな部分空間に分割するPF(Prototype Fission)を提案する。
論文 参考訳(メタデータ) (2023-08-29T19:04:42Z) - Learning Support and Trivial Prototypes for Interpretable Image
Classification [19.00622056840535]
Prototypeal part network (ProtoPNet) 法は解釈可能な分類を実現するために設計されている。
本稿では,特徴空間の分類境界付近にあるサポートプロトタイプを学習するための新しい手法により,ProtoPNetの分類を改善することを目的とする。
論文 参考訳(メタデータ) (2023-01-08T09:27:41Z) - Automatically Discovering Novel Visual Categories with Self-supervised
Prototype Learning [68.63910949916209]
本稿では,大規模な画像収集において未知のカテゴリを識別することを目的とした,新しいカテゴリ発見(NCD)の課題に取り組む。
本稿では,プロトタイプ表現学習とプロトタイプ自己学習という,2つの主要な段階からなる適応型プロトタイプ学習手法を提案する。
本研究では,4つのベンチマークデータセットについて広範な実験を行い,提案手法の有効性とロバスト性を示す。
論文 参考訳(メタデータ) (2022-08-01T16:34:33Z) - Rethinking Semantic Segmentation: A Prototype View [126.59244185849838]
学習不可能なプロトタイプをベースとした非パラメトリックセマンティックセマンティックセマンティクスモデルを提案する。
我々のフレームワークは、いくつかのデータセットに対して魅力的な結果をもたらす。
この作業が、現在のデファクトセマンティックセグメンテーションモデル設計を再考することを期待しています。
論文 参考訳(メタデータ) (2022-03-28T21:15:32Z) - Dual Prototypical Contrastive Learning for Few-shot Semantic
Segmentation [55.339405417090084]
本稿では,FSSタスクに適合する2つの特徴的コントラスト学習手法を提案する。
第一の考え方は、プロトタイプの特徴空間におけるクラス内距離を減少させながら、クラス間距離を増やすことで、プロトタイプをより差別的にすることである。
提案手法は,PASCAL-5iおよびCOCO-20iデータセット上で,最先端のFSS手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-09T08:14:50Z) - Margin Preserving Self-paced Contrastive Learning Towards Domain
Adaptation for Medical Image Segmentation [51.93711960601973]
クロスモーダル医療画像セグメンテーションのための自己ペースコントラスト学習モデルを保存する新しいマージンを提案する。
プログレッシブに洗練されたセマンティックプロトタイプの指導により、埋め込み表現空間の識別性を高めるために、コントラスト損失を減少させる新しいマージンが提案される。
クロスモーダル心セグメンテーションタスクの実験は、MPSCLが意味セグメンテーション性能を大幅に改善することを示した。
論文 参考訳(メタデータ) (2021-03-15T15:23:10Z) - Prototype-based interpretation of the functionality of neurons in
winner-take-all neural networks [1.418033127602866]
最小ユークリッド距離(ED-WTA)に基づくWTAネットワークを用いたPbL(Prototype-based Learning)は,マルチクラス分類における直感的なアプローチである。
正と負のプロトタイプの更新を巧みに切り替える,$pm$ED-WTAネットワークのための新しいトレーニングアルゴリズムを提案する。
提案した$pm$ED-WTA法は,高い解釈可能なプロトタイプを構築できることを示す。
論文 参考訳(メタデータ) (2020-08-20T03:15:37Z) - LFD-ProtoNet: Prototypical Network Based on Local Fisher Discriminant
Analysis for Few-shot Learning [98.64231310584614]
Prototypeal Network (ProtoNet) は、各クラスのプロトタイプ表現までの距離を用いてメートル法学習と分類を行う、数発の学習フレームワークである。
提案手法の有用性は,理論上は予測されるリスクバウンドを提供し,MiniImageNetとタイレッドImageNetに優れた分類精度を実証的に示すことによって示される。
論文 参考訳(メタデータ) (2020-06-15T11:56:30Z) - Prototypical Contrastive Learning of Unsupervised Representations [171.3046900127166]
原型コントラスト学習(Prototypeal Contrastive Learning, PCL)は、教師なし表現学習法である。
PCLは暗黙的にデータのセマンティック構造を学習された埋め込み空間にエンコードする。
PCLは、複数のベンチマークで最先端のインスタンスワイド・コントラスト学習法より優れている。
論文 参考訳(メタデータ) (2020-05-11T09:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。