論文の概要: It's All in the Head: Representation Knowledge Distillation through
Classifier Sharing
- arxiv url: http://arxiv.org/abs/2201.06945v1
- Date: Tue, 18 Jan 2022 13:10:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-19 16:50:33.375142
- Title: It's All in the Head: Representation Knowledge Distillation through
Classifier Sharing
- Title(参考訳): 全ては頭の中にある:分類器共有による表現的知識蒸留
- Authors: Emanuel Ben-Baruch, Matan Karklinsky, Yossi Biton, Avi Ben-Cohen,
Hussam Lawen, Nadav Zamir
- Abstract要約: 教師と学生間の分類器共有による表現蒸留の促進のための2つのアプローチを提案する。
提案手法は, 画像分類, きめ細かい分類, 顔認証など, 様々なデータセットやタスクに対して有効であることを示す。
- 参考スコア(独自算出の注目度): 0.29360071145551075
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Representation knowledge distillation aims at transferring rich information
from one model to another. Current approaches for representation distillation
mainly focus on the direct minimization of distance metrics between the models'
embedding vectors. Such direct methods may be limited in transferring
high-order dependencies embedded in the representation vectors, or in handling
the capacity gap between the teacher and student models. In this paper, we
introduce two approaches for enhancing representation distillation using
classifier sharing between the teacher and student. Specifically, we first show
that connecting the teacher's classifier to the student backbone and freezing
its parameters is beneficial for the process of representation distillation,
yielding consistent improvements. Then, we propose an alternative approach that
asks to tailor the teacher model to a student with limited capacity. This
approach competes with and in some cases surpasses the first method. Via
extensive experiments and analysis, we show the effectiveness of the proposed
methods on various datasets and tasks, including image classification,
fine-grained classification, and face verification. For example, we achieve
state-of-the-art performance for face verification on the IJB-C dataset for a
MobileFaceNet model: TAR@(FAR=1e-5)=93.7\%. Code is available at
https://github.com/Alibaba-MIIL/HeadSharingKD.
- Abstract(参考訳): 表現知識蒸留は、あるモデルから別のモデルへ豊かな情報を転送することを目的としている。
表現蒸留の現在のアプローチは、主にモデルの埋め込みベクトル間の距離メトリックの直接最小化に焦点を当てている。
このような直接的な方法は、表現ベクトルに埋め込まれた高次依存関係の転送や、教師と生徒モデルの容量ギャップの処理に制限される。
本稿では,教師と学生間の分類器共有を用いた表現蒸留の促進のための2つのアプローチを提案する。
具体的には,まず,教師の分類器と生徒の背骨を連結し,そのパラメータを凍結することが,表現蒸留のプロセスに有益であることを示し,一貫した改善をもたらす。
そこで本研究では,教師モデルを限られた能力を持つ生徒に調整する代替手法を提案する。
このアプローチは競合し、場合によっては最初の方法を超えます。
画像分類, きめ細かい分類, 顔認証など, 様々なデータセットやタスクにおける提案手法の有効性について検討した。
例えば、mobilefacenet モデルの ijb-c データセット上での顔検証を行うための最先端のパフォーマンスを実現する: tar@(far=1e-5)=93.7\%。
コードはhttps://github.com/Alibaba-MIIL/HeadSharingKDで入手できる。
関連論文リスト
- I2CKD : Intra- and Inter-Class Knowledge Distillation for Semantic Segmentation [1.433758865948252]
本稿では,イメージセマンティックセグメンテーションに適した新しい知識蒸留法を提案する。
本手法の焦点は,教師(面倒なモデル)と生徒(コンパクトモデル)の中間層間の知識の獲得と伝達である。
論文 参考訳(メタデータ) (2024-03-27T12:05:22Z) - HomE: Homography-Equivariant Video Representation Learning [62.89516761473129]
マルチビュービデオの表現学習のための新しい手法を提案する。
提案手法は異なる視点間の暗黙的なマッピングを学習し,近隣の視点間のホモグラフィ関係を維持する表現空間を決定づける。
動作分類では,UCF101データセットの96.4%の3倍精度が得られた。
論文 参考訳(メタデータ) (2023-06-02T15:37:43Z) - EmbedDistill: A Geometric Knowledge Distillation for Information
Retrieval [83.79667141681418]
大規模なニューラルモデル(トランスフォーマーなど)は、情報検索(IR)のための最先端のパフォーマンスを達成する
本研究では,大規模教師モデルで学習したクエリとドキュメント間の相対的幾何を利用した新しい蒸留手法を提案する。
提案手法は, 両エンコーダ (DE) とクロスエンコーダ (CE) の2種類の教師モデルから, 95~97%の教師性能を維持できる1/10の非対称な学生への蒸留に成功した。
論文 参考訳(メタデータ) (2023-01-27T22:04:37Z) - Knowledge Distillation Meets Open-Set Semi-Supervised Learning [69.21139647218456]
本研究では,事前学習した教師から対象学生へ,表現的知識を意味的に蒸留する新しいモデル名(bfem shortname)を提案する。
問題レベルでは、これは知識蒸留とオープンセット半教師付き学習(SSL)との興味深い関係を確立する。
我々のショートネームは、粗い物体分類と微妙な顔認識タスクの両方において、最先端の知識蒸留法よりもかなり優れている。
論文 参考訳(メタデータ) (2022-05-13T15:15:27Z) - CAD: Co-Adapting Discriminative Features for Improved Few-Shot
Classification [11.894289991529496]
少数のラベル付きサンプルを与えられた未確認のクラスに適応できるモデルを学ぶことを目的としている。
最近のアプローチでは、特徴抽出器を事前訓練し、その後、エピソードなメタラーニングのための微調整を行う。
本研究は, 複数ショットの分類において, 横断的および再重み付き識別機能を実現するための戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T06:14:51Z) - Revisiting Contrastive Methods for Unsupervised Learning of Visual
Representations [78.12377360145078]
対照的な自己教師型学習は、セグメンテーションやオブジェクト検出といった多くの下流タスクにおいて教師付き事前訓練よりも優れています。
本稿では,データセットのバイアスが既存手法にどのように影響するかを最初に検討する。
現在のコントラストアプローチは、(i)オブジェクト中心対シーン中心、(ii)一様対ロングテール、(iii)一般対ドメイン固有データセットなど、驚くほどうまく機能することを示す。
論文 参考訳(メタデータ) (2021-06-10T17:59:13Z) - Class-Balanced Distillation for Long-Tailed Visual Recognition [100.10293372607222]
実世界のイメージはしばしばクラスごとの画像数の著しい不均衡によって特徴づけられ、ロングテール分布に繋がる。
本研究では、インスタンスサンプリングで学習した特徴表現が長尾設定では最適とは程遠いという重要な観察を行うことで、新しいフレームワークを提案する。
我々の主な貢献は、知識蒸留を利用して特徴表現を強化する新しい訓練方法である。
論文 参考訳(メタデータ) (2021-04-12T08:21:03Z) - Learning and Evaluating Representations for Deep One-class
Classification [59.095144932794646]
ディープワンクラス分類のための2段階フレームワークを提案する。
まず,一級データから自己教師付き表現を学習し,学習した表現に基づいて一級分類器を構築する。
実験では、視覚領域の1クラス分類ベンチマークで最先端の性能を示す。
論文 参考訳(メタデータ) (2020-11-04T23:33:41Z) - Data-Efficient Ranking Distillation for Image Retrieval [15.88955427198763]
近年のアプローチでは、より深く重いアーキテクチャからより小さなネットワークへ知識を伝達するために、知識蒸留を用いてこの問題に対処している。
本稿では,計量学習問題に対する知識蒸留について述べる。
従来の手法とは違って,提案手法では,教師モデルに対する限定的なクエリ,最終出力表現へのアクセスを伴うブラックボックス教師モデル,および第3に,基本トラストラベルのないオリジナルトレーニングデータのごく一部に対処する。
論文 参考訳(メタデータ) (2020-07-10T10:59:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。