論文の概要: Modular Adaptation for Cross-Domain Few-Shot Learning
- arxiv url: http://arxiv.org/abs/2104.00619v1
- Date: Thu, 1 Apr 2021 16:50:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-02 13:33:35.467772
- Title: Modular Adaptation for Cross-Domain Few-Shot Learning
- Title(参考訳): クロスドメインFew-Shot学習のためのモジュール適応
- Authors: Xiao Lin, Meng Ye, Yunye Gong, Giedrius Buracas, Nikoletta Basiou,
Ajay Divakaran, Yi Yao
- Abstract要約: 下流タスクの大幅な性能向上は,適応プロセスの適切な設計によって達成できることを示す。
本稿では,複数の最先端(SOTA)適応手法を選択的に実行するためのモジュール適応手法を提案する。
異なる下流タスクは異なるタイプの適応を必要とする可能性があるため、モジュール適応は最も適切なモジュールの動的構成を可能にする。
- 参考スコア(独自算出の注目度): 8.997255739981437
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adapting pre-trained representations has become the go-to recipe for learning
new downstream tasks with limited examples. While literature has demonstrated
great successes via representation learning, in this work, we show that
substantial performance improvement of downstream tasks can also be achieved by
appropriate designs of the adaptation process. Specifically, we propose a
modular adaptation method that selectively performs multiple state-of-the-art
(SOTA) adaptation methods in sequence. As different downstream tasks may
require different types of adaptation, our modular adaptation enables the
dynamic configuration of the most suitable modules based on the downstream
task. Moreover, as an extension to existing cross-domain 5-way k-shot
benchmarks (e.g., miniImageNet -> CUB), we create a new high-way (~100) k-shot
benchmark with data from 10 different datasets. This benchmark provides a
diverse set of domains and allows the use of stronger representations learned
from ImageNet. Experimental results show that by customizing adaptation process
towards downstream tasks, our modular adaptation pipeline (MAP) improves 3.1%
in 5-shot classification accuracy over baselines of finetuning and Prototypical
Networks.
- Abstract(参考訳): 事前訓練された表現の適応は、限られた例で新しい下流タスクを学ぶためのゴートレシピとなっている。
文学は表現学習を通じて大きな成功を収めてきたが,本研究では,適応プロセスの適切な設計により,下流タスクの実質的な性能向上も達成できることを示す。
具体的には,sof(state-of-the-art)適応法を逐次的に選択的に実行するモジュール適応法を提案する。
異なる下流タスクは異なるタイプの適応を必要とする可能性があるため、モジュール適応は下流タスクに基づいて最も適切なモジュールの動的構成を可能にする。
さらに、既存のクロスドメイン5ウェイkショットベンチマーク(miniimagenet -> cubなど)の拡張として、10の異なるデータセットからのデータを含む新しいハイウェイ(~100)kショットベンチマークを作成します。
このベンチマークは多様なドメインセットを提供し、ImageNetから学んだより強力な表現の使用を可能にする。
実験の結果,下流タスクへの適応プロセスのカスタマイズにより,ファインタニングやプロトタイプネットワークのベースラインよりも5ショットの分類精度が3.1%向上した。
関連論文リスト
- Adaptive FSS: A Novel Few-Shot Segmentation Framework via Prototype
Enhancement [6.197356908000006]
Few-Shot (FSS) は、いくつかの注釈付き画像を用いて、新しいクラスセグメンテーションタスクを達成することを目的としている。
本稿では,既存のFSSモデルを新しいクラスに効率的に適応できるアダプタ機構,すなわちAdaptive FSSに基づく新しいフレームワークを提案する。
我々のアプローチは、エンコーダの層間にPAMを挿入するだけで、異なるバックボーンを持つ多様なFSSメソッドと互換性がある。
論文 参考訳(メタデータ) (2023-12-25T14:03:38Z) - Informative Data Mining for One-Shot Cross-Domain Semantic Segmentation [84.82153655786183]
Informative Data Mining (IDM) と呼ばれる新しいフレームワークを提案し、セマンティックセグメンテーションのための効率的なワンショットドメイン適応を実現する。
IDMは、最も情報性の高いサンプルを特定するために不確実性に基づく選択基準を提供し、迅速に適応し、冗長なトレーニングを減らす。
提案手法は,GTA5/SYNTHIAからCityscapesへの適応タスクにおいて,既存の手法より優れ,56.7%/55.4%の最先端のワンショット性能を実現している。
論文 参考訳(メタデータ) (2023-09-25T15:56:01Z) - Multi-Domain Learning with Modulation Adapters [33.54630534228469]
マルチドメイン学習は、複数のドメインにまたがる画像分類など、関連するタスクを同時に処理することを目的としている。
変調アダプタは、各タスクに対して乗法的にモデルの畳み込み重みを更新する。
我々のアプローチは、既存の最先端のアプローチと同等かそれ以上の精度で、優れた結果をもたらす。
論文 参考訳(メタデータ) (2023-07-17T14:40:16Z) - Benchmarking Test-Time Adaptation against Distribution Shifts in Image
Classification [77.0114672086012]
テスト時間適応(TTA)は、予測時にのみラベルのないサンプルを活用することにより、モデルの一般化性能を向上させる技術である。
本稿では,広く使用されている5つの画像分類データセット上で,13のTTA手法とその変種を体系的に評価するベンチマークを提案する。
論文 参考訳(メタデータ) (2023-07-06T16:59:53Z) - Adaptive Spot-Guided Transformer for Consistent Local Feature Matching [64.30749838423922]
局所的特徴マッチングのための適応スポットガイド変換器(ASTR)を提案する。
ASTRは、統一された粗いアーキテクチャにおける局所的な一貫性とスケールのバリエーションをモデル化する。
論文 参考訳(メタデータ) (2023-03-29T12:28:01Z) - Few-Shot Adaptation of Pre-Trained Networks for Domain Shift [17.123505029637055]
深層ネットワークは、ソース(トレーニング)データとターゲット(テスト)データの間にドメインシフトがある場合、パフォーマンスが低下する傾向がある。
最近のテスト時間適応手法では,新たなターゲット環境にデプロイされた事前訓練されたソースモデルのバッチ正規化レイヤをストリームデータで更新することで,パフォーマンス劣化を軽減している。
データ効率適応の実践的課題に対処するために,少数ショット領域適応のためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-30T16:49:59Z) - Task Adaptive Parameter Sharing for Multi-Task Learning [114.80350786535952]
Adaptive Task Adapting Sharing(TAPS)は、階層の小さなタスク固有のサブセットを適応的に修正することで、ベースモデルを新しいタスクにチューニングする手法である。
他の手法と比較して、TAPSはダウンストリームタスクに対して高い精度を維持し、タスク固有のパラメータは少ない。
我々は,タスクやアーキテクチャ(ResNet,DenseNet,ViT)を微調整して評価し,実装が簡単でありながら最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2022-03-30T23:16:07Z) - Learning Instance-Specific Adaptation for Cross-Domain Segmentation [79.61787982393238]
クロスドメイン画像セグメンテーションのためのテスト時間適応法を提案する。
テスト時に新しい目に見えないインスタンスが与えられると、インスタンス固有のBatchNormキャリブレーションを実行することで、事前トレーニングされたモデルを適用します。
論文 参考訳(メタデータ) (2022-03-30T17:59:45Z) - Parameter-efficient Model Adaptation for Vision Transformers [45.3460867776953]
画像分類タスクにおける視覚変換器のパラメータ効率モデル適応戦略について検討する。
本稿では,局所固有次元を測定することで,まずサブモジュールを選択するパラメータ効率のよいモデル適応フレームワークを提案する。
提案手法は,20画像分類データセット間の精度とパラメータ効率のトレードオフを最良とする。
論文 参考訳(メタデータ) (2022-03-29T05:30:09Z) - Improving Task Adaptation for Cross-domain Few-shot Learning [41.821234589075445]
クロスドメインの少ショット分類は、ラベル付きサンプルがほとんどない未確認のクラスやドメインから分類器を学ぶことを目的としている。
残余接続を有する畳み込み層に付着したパラメトリックアダプタが最良であることを示す。
論文 参考訳(メタデータ) (2021-07-01T10:47:06Z) - Few-shot Sequence Learning with Transformers [79.87875859408955]
少数のトレーニング例で提供される新しいタスクの学習を目的とした少数のショットアルゴリズム。
本研究では,データポイントがトークンのシーケンスである設定において,少数ショット学習を行う。
トランスフォーマーに基づく効率的な学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-17T12:30:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。