論文の概要: Few-shot Classification as Multi-instance Verification: Effective Backbone-agnostic Transfer across Domains
- arxiv url: http://arxiv.org/abs/2507.00401v1
- Date: Tue, 01 Jul 2025 03:34:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:22:59.254282
- Title: Few-shot Classification as Multi-instance Verification: Effective Backbone-agnostic Transfer across Domains
- Title(参考訳): マルチスタンス検証としてのFew-shot分類: ドメイン間の効果的なバックボーン非依存的移動
- Authors: Xin Xu, Eibe Frank, Geoffrey Holmes,
- Abstract要約: ドメイン間数ショット学習は、実践的なユースケースではますます一般的になっている。
バックボーン(特徴抽出器)の微調整は不可能または不可能である。
我々は、"MIV-head"と呼ばれる、少数ショットドメイン適応に対する新しいアプローチを導入する。
- 参考スコア(独自算出の注目度): 11.027466339522777
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We investigate cross-domain few-shot learning under the constraint that fine-tuning of backbones (i.e., feature extractors) is impossible or infeasible -- a scenario that is increasingly common in practical use cases. Handling the low-quality and static embeddings produced by frozen, "black-box" backbones leads to a problem representation of few-shot classification as a series of multiple instance verification (MIV) tasks. Inspired by this representation, we introduce a novel approach to few-shot domain adaptation, named the "MIV-head", akin to a classification head that is agnostic to any pretrained backbone and computationally efficient. The core components designed for the MIV-head, when trained on few-shot data from a target domain, collectively yield strong performance on test data from that domain. Importantly, it does so without fine-tuning the backbone, and within the "meta-testing" phase. Experimenting under various settings and on an extension of the Meta-dataset benchmark for cross-domain few-shot image classification, using representative off-the-shelf convolutional neural network and vision transformer backbones pretrained on ImageNet1K, we show that the MIV-head achieves highly competitive accuracy when compared to state-of-the-art "adapter" (or partially fine-tuning) methods applied to the same backbones, while incurring substantially lower adaptation cost. We also find well-known "classification head" approaches lag far behind in terms of accuracy. Ablation study empirically justifies the core components of our approach. We share our code at https://github.com/xxweka/MIV-head.
- Abstract(参考訳): 本稿では,バックボーン(特徴抽出器)の微調整が不可能あるいは不可能であるという制約の下で,ドメイン間数ショット学習について検討する。
冷凍された"ブラックボックス"バックボーンによって生成される低品質で静的な埋め込みを処理することは、複数のインスタンス検証(MIV)タスクのシリーズとして、少数ショット分類の問題表現につながる。
この表現にインスパイアされた我々は、「MIVヘッド」と呼ばれる、事前訓練されたバックボーンに依存せず、計算的に効率的である分類ヘッドに類似した、少数ショットドメイン適応に対する新しいアプローチを導入する。
MIVヘッド用に設計されたコアコンポーネントは、ターゲットドメインから数ショットのデータでトレーニングされると、そのドメインからのテストデータに対して強いパフォーマンスが得られる。
重要なことは、バックボーンを微調整することなく、そして"meta-testing"フェーズ内で行うことだ。
画像Net1Kで事前訓練された市販の畳み込みニューラルネットワークとビジョントランスフォーマーのバックボーンを用いて、多種多様な条件下で実験を行い、また、メタデータセットによる画像分類の拡張により、MIVヘッドは、同じバックボーンに適用された最先端のアダプタ(または部分的に微調整)手法と比較して高い競争精度を達成できるが、適応コストはかなり低い。
また、よく知られた"分類ヘッド"アプローチは、精度の点ではるかに遅れていることも分かりました。
アブレーション研究は、我々のアプローチのコアコンポーネントを実証的に正当化する。
私たちはコードをhttps://github.com/xxweka/MIV-headで共有しています。
関連論文リスト
- PDiscoNet: Semantically consistent part discovery for fine-grained
recognition [62.12602920807109]
画像レベルのクラスラベルのみを用いて,対象部品の発見を推奨する先行情報とともにPDiscoNetを提案する。
CUB,CelebA,PartImageNet で得られた結果から,提案手法は従来手法よりもかなり優れた部分発見性能が得られることがわかった。
論文 参考訳(メタデータ) (2023-09-06T17:19:29Z) - Explaining Cross-Domain Recognition with Interpretable Deep Classifier [100.63114424262234]
解釈可能なDeep(IDC)は、ターゲットサンプルの最も近いソースサンプルを、分類器が決定を下す証拠として学習する。
我々のIDCは、精度の劣化がほとんどなく、最適なリジェクションオプションの分類を効果的に調整する、より説明可能なモデルに導かれる。
論文 参考訳(メタデータ) (2022-11-15T15:58:56Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Low-confidence Samples Matter for Domain Adaptation [47.552605279925736]
ドメイン適応(DA)は、知識をラベルの豊富なソースドメインから関連するがラベルの少ないターゲットドメインに転送することを目的としている。
低信頼度サンプルの処理による新しいコントラスト学習法を提案する。
提案手法を教師なしと半教師付きの両方のDA設定で評価する。
論文 参考訳(メタデータ) (2022-02-06T15:45:45Z) - Universal Representation Learning from Multiple Domains for Few-shot
Classification [41.821234589075445]
複数の個別に訓練されたネットワークの知識を蒸留し,一組の普遍的な深層表現を学習することを提案する。
より効率的な適応ステップにより、未確認領域に対する普遍表現をさらに洗練できることが示される。
論文 参考訳(メタデータ) (2021-03-25T13:49:12Z) - A Universal Representation Transformer Layer for Few-Shot Image
Classification [43.31379752656756]
少ないショット分類は、少数のサンプルで示される場合、目に見えないクラスを認識することを目的としている。
本稿では,多様なデータソースから未確認のクラスやサンプルを抽出するマルチドメイン・少数ショット画像分類の問題点について考察する。
そこで本研究では,メタ学習者がユニバーサルな特徴を活用できるユニバーサル表現変換器層を提案する。
論文 参考訳(メタデータ) (2020-06-21T03:08:00Z) - Cross-domain Detection via Graph-induced Prototype Alignment [114.8952035552862]
カテゴリレベルのドメインアライメントを求めるグラフ誘発プロトタイプアライメント(GPA)フレームワークを提案する。
さらに,クラス不均衡がドメイン適応に与える影響を軽減するために,クラス重み付きコントラスト損失を設計する。
我々のアプローチは、既存の手法よりも顕著なマージンで優れています。
論文 参考訳(メタデータ) (2020-03-28T17:46:55Z) - Frustratingly Simple Few-Shot Object Detection [98.42824677627581]
希少なクラスにおける既存検出器の最後の層のみを微調整することは、数発の物体検出タスクに不可欠である。
このような単純なアプローチは、現在のベンチマークで約220ポイントのメタ学習方法より優れている。
論文 参考訳(メタデータ) (2020-03-16T00:29:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。