論文の概要: Maximally Compact and Separated Features with Regular Polytope Networks
- arxiv url: http://arxiv.org/abs/2301.06116v1
- Date: Sun, 15 Jan 2023 15:20:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-18 17:11:28.555357
- Title: Maximally Compact and Separated Features with Regular Polytope Networks
- Title(参考訳): 正規ポリトープネットワークを用いた最大コンパクト・分離特性
- Authors: Federico Pernici, Matteo Bruni, Claudio Baecchi, Alberto Del Bimbo
- Abstract要約: 本稿では, CNN から抽出する方法として, クラス間分離性とクラス間圧縮性の特性について述べる。
我々は、よく知られた citewen2016discriminative や他の類似したアプローチで得られる特徴と類似した特徴を得る。
- 参考スコア(独自算出の注目度): 22.376196701232388
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional Neural Networks (CNNs) trained with the Softmax loss are widely
used classification models for several vision tasks. Typically, a learnable
transformation (i.e. the classifier) is placed at the end of such models
returning class scores that are further normalized into probabilities by
Softmax. This learnable transformation has a fundamental role in determining
the network internal feature representation.
In this work we show how to extract from CNNs features with the properties of
\emph{maximum} inter-class separability and \emph{maximum} intra-class
compactness by setting the parameters of the classifier transformation as not
trainable (i.e. fixed). We obtain features similar to what can be obtained with
the well-known ``Center Loss'' \cite{wen2016discriminative} and other similar
approaches but with several practical advantages including maximal exploitation
of the available feature space representation, reduction in the number of
network parameters, no need to use other auxiliary losses besides the Softmax.
Our approach unifies and generalizes into a common approach two apparently
different classes of methods regarding: discriminative features, pioneered by
the Center Loss \cite{wen2016discriminative} and fixed classifiers, firstly
evaluated in \cite{hoffer2018fix}.
Preliminary qualitative experimental results provide some insight on the
potentialities of our combined strategy.
- Abstract(参考訳): ソフトマックス損失で訓練された畳み込みニューラルネットワーク(CNN)は、視覚タスクの分類モデルとして広く使われている。
通常、学習可能な変換(すなわち分類器)は、ソフトマックスによってさらに正規化されるクラススコアを返すモデルの最後に置かれる。
この学習可能な変換は、ネットワーク内部の特徴表現を決定する基本的な役割を持つ。
本研究は,クラス間分離性とクラス内コンパクト性を持つCNN特徴量から,分類器変換のパラメータをトレーニング不可能(すなわち,固定)に設定することにより,CNN特徴量から抽出する方法を示す。
我々は、よく知られた ‘Center Loss'' \cite{wen2016discriminative} や他の類似したアプローチで得られる機能と類似しているが、利用可能な特徴空間表現の最大活用、ネットワークパラメータの削減、Softmax以外の補助的損失を使用する必要のないいくつかの実用的利点がある。
このアプローチは,2つの明らかに異なる手法の共通アプローチに統一し,一般化する: 中心損失 \cite{wen2016 discriminative} によって開拓された判別的特徴と,まず \cite{hoffer2018fix} で評価された固定的分類器である。
予備的定性的実験結果から, 総合戦略の可能性について考察した。
関連論文リスト
- Universal Consistency of Wide and Deep ReLU Neural Networks and Minimax
Optimal Convergence Rates for Kolmogorov-Donoho Optimal Function Classes [7.433327915285969]
我々は,ロジスティック損失に基づいて学習した広帯域および深部ReLUニューラルネットワーク分類器の普遍的整合性を証明する。
また、ニューラルネットワークに基づく分類器が最小収束率を達成できる確率尺度のクラスに対して十分な条件を与える。
論文 参考訳(メタデータ) (2024-01-08T23:54:46Z) - Variational Classification [51.2541371924591]
我々は,変分オートエンコーダの訓練に用いるエビデンスローバウンド(ELBO)に類似した,モデルの訓練を目的とした変分目的を導出する。
軟質マックス層への入力を潜伏変数のサンプルとして扱うことで, 抽象化された視点から, 潜在的な矛盾が明らかとなった。
我々は、標準ソフトマックス層に見られる暗黙の仮定の代わりに、選択された潜在分布を誘導する。
論文 参考訳(メタデータ) (2023-05-17T17:47:19Z) - Equivariance with Learned Canonicalization Functions [77.32483958400282]
正規化を行うために小さなニューラルネットワークを学習することは、事前定義を使用することよりも優れていることを示す。
実験の結果,正準化関数の学習は多くのタスクで同変関数を学習する既存の手法と競合することがわかった。
論文 参考訳(メタデータ) (2022-11-11T21:58:15Z) - Do We Really Need a Learnable Classifier at the End of Deep Neural
Network? [118.18554882199676]
本研究では、ニューラルネットワークを学習して分類器をランダムにETFとして分類し、訓練中に固定する可能性について検討する。
実験結果から,バランスの取れたデータセットの画像分類において,同様の性能が得られることがわかった。
論文 参考訳(メタデータ) (2022-03-17T04:34:28Z) - Exploring Category-correlated Feature for Few-shot Image Classification [27.13708881431794]
本稿では,従来の知識として,新しいクラスとベースクラスのカテゴリ相関を探索し,シンプルで効果的な特徴補正手法を提案する。
提案手法は, 広く使用されている3つのベンチマークにおいて, 一定の性能向上が得られる。
論文 参考訳(メタデータ) (2021-12-14T08:25:24Z) - Learning Debiased and Disentangled Representations for Semantic
Segmentation [52.35766945827972]
セマンティックセグメンテーションのためのモデルに依存しない訓練手法を提案する。
各トレーニングイテレーションで特定のクラス情報をランダムに除去することにより、クラス間の機能依存を効果的に削減する。
提案手法で訓練したモデルは,複数のセマンティックセグメンテーションベンチマークにおいて強い結果を示す。
論文 参考訳(メタデータ) (2021-10-31T16:15:09Z) - Regular Polytope Networks [29.44144177954405]
我々は、変換は精度を損なわず、メモリ使用量を減らすことなく修正できると主張しています。
また、固定および最大分離埋め込みを学ぶために使用することができます。
埋め込みの定常性とその最大分離表現を理論的に正当化できることを示した。
論文 参考訳(メタデータ) (2021-03-29T14:11:32Z) - Hyperspherical embedding for novel class classification [1.5952956981784217]
本稿では,正規化ソフトマックス損失下での潜在空間の表現に制約に基づくアプローチを提案する。
本研究では,メトリクス学習と正規化ソフトマックス損失の両方を用いて,異なるデータセット上の未知のクラスを分類するための提案手法を実験的に検証した。
この結果から,提案した戦略は,ペアワイズ学習を必要とせず,メトリック学習戦略よりも優れた分類結果を提供するため,より大規模なクラスで効率的に学習可能であることが示唆された。
論文 参考訳(メタデータ) (2021-02-05T15:42:13Z) - Shaping Deep Feature Space towards Gaussian Mixture for Visual
Classification [74.48695037007306]
視覚分類のためのディープニューラルネットワークのためのガウス混合損失関数(GM)を提案する。
分類マージンと可能性正規化により、GM損失は高い分類性能と特徴分布の正確なモデリングの両方を促進する。
提案したモデルは、追加のトレーニング可能なパラメータを使わずに、簡単かつ効率的に実装できる。
論文 参考訳(メタデータ) (2020-11-18T03:32:27Z) - ReMarNet: Conjoint Relation and Margin Learning for Small-Sample Image
Classification [49.87503122462432]
ReMarNet(Relation-and-Margin Learning Network)と呼ばれるニューラルネットワークを導入する。
本手法は,上記2つの分類機構の双方において優れた性能を発揮する特徴を学習するために,異なるバックボーンの2つのネットワークを組み立てる。
4つの画像データセットを用いた実験により,本手法はラベル付きサンプルの小さな集合から識別的特徴を学習するのに有効であることが示された。
論文 参考訳(メタデータ) (2020-06-27T13:50:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。