論文の概要: Equiangular Basis Vectors
- arxiv url: http://arxiv.org/abs/2303.11637v1
- Date: Tue, 21 Mar 2023 07:08:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-22 16:11:17.840376
- Title: Equiangular Basis Vectors
- Title(参考訳): 等角基底ベクトル
- Authors: Yang Shen and Xuhao Sun and Xiu-Shen Wei
- Abstract要約: ディープニューラルネットワークでは、モデルは通常、異なる分類タスクを処理するために、ソフトマックスを備えたkウェイ完全に接続された層で終わる。
分類タスクのための等角基底ベクトル(EBV)を提案する。
EBVは2022年のDIGIX Global AI Challengeで優勝しました。
- 参考スコア(独自算出の注目度): 26.520084199562692
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose Equiangular Basis Vectors (EBVs) for classification tasks. In deep
neural networks, models usually end with a k-way fully connected layer with
softmax to handle different classification tasks. The learning objective of
these methods can be summarized as mapping the learned feature representations
to the samples' label space. While in metric learning approaches, the main
objective is to learn a transformation function that maps training data points
from the original space to a new space where similar points are closer while
dissimilar points become farther apart. Different from previous methods, our
EBVs generate normalized vector embeddings as "predefined classifiers" which
are required to not only be with the equal status between each other, but also
be as orthogonal as possible. By minimizing the spherical distance of the
embedding of an input between its categorical EBV in training, the predictions
can be obtained by identifying the categorical EBV with the smallest distance
during inference. Various experiments on the ImageNet-1K dataset and other
downstream tasks demonstrate that our method outperforms the general fully
connected classifier while it does not introduce huge additional computation
compared with classical metric learning methods. Our EBVs won the first place
in the 2022 DIGIX Global AI Challenge, and our code is open-source and
available at https://github.com/NJUST-VIPGroup/Equiangular-Basis-Vectors.
- Abstract(参考訳): 分類タスクのための等角基底ベクトル(EBV)を提案する。
ディープニューラルネットワークでは、モデルは通常、異なる分類タスクを処理するためにsoftmaxを備えたkウェイ完全接続層で終わる。
これらの手法の学習目的は、学習した特徴表現をサンプルのラベル空間にマッピングするものとして要約することができる。
メトリック学習のアプローチでは、主な目的は、トレーニングデータポイントを元の空間から、類似点が近く、類似点がより離れている新しい空間にマップする変換関数を学ぶことである。
従来の手法と異なり、ebvは正規化ベクトル埋め込みを「事前定義された分類器」として生成し、互いに等しい状態であるだけでなく、可能な限り直交することも要求します。
学習中のカテゴリebv間の入力の埋め込みの球面距離を最小化することにより、推論中にカテゴリebvを最小距離で識別することで予測を得ることができる。
ImageNet-1Kデータセットおよび他のダウンストリームタスクに関する様々な実験により、我々の手法は一般的な完全連結型分類器よりも優れており、古典的な計量学習法に比べて大きな計算量を導入しないことが示された。
EBVは2022年のDIGIX Global AI Challengeで優勝し、私たちのコードはhttps://github.com/NJUST-VIPGroup/Equiangular-Basis-Vectorsで公開されている。
関連論文リスト
- Distance Learner: Incorporating Manifold Prior to Model Training [1.6752182911522522]
本稿では,最新のDeep Neural Networks (DNN) において,多様体仮説を先行として組み込む新しい手法である距離学習器を提案する。
分類において、距離学習者は最も近い予測されたクラス多様体に対応するクラスを選択する。
本手法は, 対向ロバスト性(対向ロバスト性)の課題において評価し, 標準分類器を大きなマージンで上回るだけでなく, 最先端の対向訓練によって訓練された分類器と同等に性能を発揮することを示した。
論文 参考訳(メタデータ) (2022-07-14T13:07:08Z) - Large-Margin Representation Learning for Texture Classification [67.94823375350433]
本稿では,テクスチャ分類のための小さなデータセット上で教師付きモデルをトレーニングするために,畳み込み層(CL)と大規模計量学習を組み合わせた新しいアプローチを提案する。
テクスチャと病理画像データセットの実験結果から,提案手法は同等のCNNと比較して計算コストが低く,収束が早く,競争精度が向上することが示された。
論文 参考訳(メタデータ) (2022-06-17T04:07:45Z) - Compare learning: bi-attention network for few-shot learning [6.559037166322981]
距離学習と呼ばれる数ショットの学習手法の1つは、画像のペアが同じカテゴリに属しているかどうかを判断するために、まず遠距離計量を学習することで、この課題に対処する。
本稿では, インスタンスの埋め込みの類似性を正確に, グローバルかつ効率的に測定できる, Bi-attention Network という新しい手法を提案する。
論文 参考訳(メタデータ) (2022-03-25T07:39:10Z) - Do We Really Need a Learnable Classifier at the End of Deep Neural
Network? [118.18554882199676]
本研究では、ニューラルネットワークを学習して分類器をランダムにETFとして分類し、訓練中に固定する可能性について検討する。
実験結果から,バランスの取れたデータセットの画像分類において,同様の性能が得られることがわかった。
論文 参考訳(メタデータ) (2022-03-17T04:34:28Z) - Transformers Can Do Bayesian Inference [56.99390658880008]
我々はPFN(Presideed Data Fitted Networks)を提案する。
PFNは、大規模機械学習技術におけるインコンテキスト学習を活用して、大規模な後部集合を近似する。
我々は、PFNがガウス過程をほぼ完璧に模倣し、難解問題に対する効率的なベイズ推定を可能にすることを示した。
論文 参考訳(メタデータ) (2021-12-20T13:07:39Z) - Rethinking Nearest Neighbors for Visual Classification [56.00783095670361]
k-NNは、トレーニングセット内のテストイメージとトップk隣人間の距離を集約する遅延学習手法である。
我々は,教師付き手法と自己監督型手法のいずれでも,事前学習した視覚表現を持つk-NNを2つのステップで採用する。
本研究は,幅広い分類タスクに関する広範な実験により,k-NN統合の汎用性と柔軟性を明らかにした。
論文 参考訳(メタデータ) (2021-12-15T20:15:01Z) - Generalized Learning Vector Quantization for Classification in
Randomized Neural Networks and Hyperdimensional Computing [4.4886210896619945]
本稿では,トレーニング中の計算コストの高い行列操作を回避する改良型RVFLネットワークを提案する。
提案手法は,UCI Machine Learning Repositoryから取得したデータセットの集合に対して,最先端の精度を達成した。
論文 参考訳(メタデータ) (2021-06-17T21:17:17Z) - No Fear of Heterogeneity: Classifier Calibration for Federated Learning
with Non-IID Data [78.69828864672978]
実世界のフェデレーションシステムにおける分類モデルのトレーニングにおける中心的な課題は、非IIDデータによる学習である。
このアルゴリズムは, 近似されたssian混合モデルからサンプリングした仮想表現を用いて分類器を調整する。
実験の結果,CIFAR-10,CIFAR-100,CINIC-10など,一般的なフェデレーション学習ベンチマークにおけるCCVRの現状が示された。
論文 参考訳(メタデータ) (2021-06-09T12:02:29Z) - OVANet: One-vs-All Network for Universal Domain Adaptation [78.86047802107025]
既存のメソッドは、検証または未知のサンプルの事前定義された比率に基づいて未知のサンプルを拒否するしきい値を手動で設定します。
本稿では,ソースサンプルを用いて閾値を学習し,対象領域に適応する手法を提案する。
私たちの考えは、ソースドメインの最小クラス間距離は、ターゲットの既知のか未知かを決定するための良いしきい値であるべきです。
論文 参考訳(メタデータ) (2021-04-07T18:36:31Z) - Few-Shot Incremental Learning with Continually Evolved Classifiers [46.278573301326276]
Few-shot Class-Incremental Learning(FSCIL)は、いくつかのデータポイントから新しい概念を継続的に学習できる機械学習アルゴリズムの設計を目指している。
難点は、新しいクラスからの限られたデータが、重大な過度な問題を引き起こすだけでなく、破滅的な忘れの問題も悪化させることにある。
我々は,適応のための分類器間のコンテキスト情報を伝達するグラフモデルを用いた連続進化型cif(cec)を提案する。
論文 参考訳(メタデータ) (2021-04-07T10:54:51Z) - Digit Image Recognition Using an Ensemble of One-Versus-All Deep Network
Classifiers [2.385916960125935]
本稿では,デジタル画像認識とテストのための新しい手法を実装し,その上で評価する。
アンサンブル内の全てのネットワークは、SGDMA(Gradient Descent with Momentum)を用いたOVAトレーニング技術によって訓練されている。
提案手法は,全データセットの数値画像認識におけるベースラインよりも優れている。
論文 参考訳(メタデータ) (2020-06-28T15:37:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。