論文の概要: Large Margin Mechanism and Pseudo Query Set on Cross-Domain Few-Shot
Learning
- arxiv url: http://arxiv.org/abs/2005.09218v1
- Date: Tue, 19 May 2020 05:28:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 13:22:53.997565
- Title: Large Margin Mechanism and Pseudo Query Set on Cross-Domain Few-Shot
Learning
- Title(参考訳): クロスドメインFew-Shot学習における大規模マージン機構と擬似クエリセット
- Authors: Jia-Fong Yeh and Hsin-Ying Lee and Bing-Chen Tsai and Yi-Rong Chen and
Ping-Chia Huang and Winston H. Hsu
- Abstract要約: クロスドメインな数ショット学習は、数ショットの学習問題の新しいブランチである。
本稿では,この問題を解決するために,新しいLMM-PQS法を提案する。
当社のアプローチは堅牢で、トレーニング済みのモデルを、少ないデータで新しいドメインに容易に適用できます。
- 参考スコア(独自算出の注目度): 23.12058999424614
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, few-shot learning problems have received a lot of attention.
While methods in most previous works were trained and tested on datasets in one
single domain, cross-domain few-shot learning is a brand-new branch of few-shot
learning problems, where models handle datasets in different domains between
training and testing phases. In this paper, to solve the problem that the model
is pre-trained (meta-trained) on a single dataset while fine-tuned on datasets
in four different domains, including common objects, satellite images, and
medical images, we propose a novel large margin fine-tuning method (LMM-PQS),
which generates pseudo query images from support images and fine-tunes the
feature extraction modules with a large margin mechanism inspired by methods in
face recognition. According to the experiment results, LMM-PQS surpasses the
baseline models by a significant margin and demonstrates that our approach is
robust and can easily adapt pre-trained models to new domains with few data.
- Abstract(参考訳): 近年では、数発の学習問題に注目が集まっている。
以前のほとんどの作業のメソッドは、単一のドメインのデータセットでトレーニングとテストが行われたが、クロスドメインの少数ショット学習は、トレーニングフェーズとテストフェーズの間にあるさまざまなドメインのデータセットを処理する、少数ショット学習問題の真新しいブランチである。
本稿では,共通対象,衛星画像,医用画像など4つの異なる領域のデータセットを微調整しながら,単一のデータセット上で事前学習(メタ訓練)されているという問題を解決するために,支援画像から疑似クエリ画像を生成し,顔認識の手法に触発された大きなマージン機構で特徴抽出モジュールを微調整する,新しい大マージン微調整法(lmm-pqs)を提案する。
実験結果によると,LMM-PQSはベースラインモデルよりもかなりのマージンを越え,我々のアプローチが堅牢であり,事前学習されたモデルをデータが少ない新しい領域に容易に適応できることを示した。
関連論文リスト
- Toward a Foundation Model for Time Series Data [34.1973242428317]
基礎モデルは、大規模で多様なデータセットに基づいてトレーニングされた機械学習モデルである。
複数のドメインのラベルのないサンプルを活用することで,効率的な時系列基礎モデルを構築する。
論文 参考訳(メタデータ) (2023-10-05T21:44:50Z) - Multi-Domain Learning with Modulation Adapters [33.54630534228469]
マルチドメイン学習は、複数のドメインにまたがる画像分類など、関連するタスクを同時に処理することを目的としている。
変調アダプタは、各タスクに対して乗法的にモデルの畳み込み重みを更新する。
我々のアプローチは、既存の最先端のアプローチと同等かそれ以上の精度で、優れた結果をもたらす。
論文 参考訳(メタデータ) (2023-07-17T14:40:16Z) - Delving Deeper into Data Scaling in Masked Image Modeling [145.36501330782357]
視覚認識のためのマスク付き画像モデリング(MIM)手法のスケーリング能力に関する実証的研究を行った。
具体的には、Webで収集したCoyo-700Mデータセットを利用する。
我々のゴールは、データとモデルのサイズの異なるスケールでダウンストリームタスクのパフォーマンスがどのように変化するかを調べることです。
論文 参考訳(メタデータ) (2023-05-24T15:33:46Z) - Exploring Visual Prompts for Whole Slide Image Classification with
Multiple Instance Learning [25.124855361054763]
本稿では,事前学習したモデルから病理組織像へのドメイン固有知識変換を学習するための,新しい,シンプルで効果的な手法を提案する。
提案手法では,事前学習したデータセットと対象の病理組織学データセットの違いを識別する上で,事前学習したモデルを支援するために,プロンプトコンポーネントを使用する。
論文 参考訳(メタデータ) (2023-03-23T09:23:52Z) - Learning from Temporal Spatial Cubism for Cross-Dataset Skeleton-based
Action Recognition [88.34182299496074]
アクションラベルはソースデータセットでのみ利用可能だが、トレーニング段階のターゲットデータセットでは利用できない。
我々は,2つの骨格に基づく行動データセット間の領域シフトを低減するために,自己スーパービジョン方式を利用する。
時間的セグメントや人体部分のセグメンテーションとパーフォーミングにより、我々は2つの自己教師あり学習分類タスクを設計する。
論文 参考訳(メタデータ) (2022-07-17T07:05:39Z) - CHALLENGER: Training with Attribution Maps [63.736435657236505]
ニューラルネットワークのトレーニングに属性マップを利用すると、モデルの正規化が向上し、性能が向上することを示す。
特に、我々の汎用的なドメインに依存しないアプローチは、ビジョン、自然言語処理、時系列タスクにおける最先端の結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-05-30T13:34:46Z) - KNN-Diffusion: Image Generation via Large-Scale Retrieval [40.6656651653888]
適応する学習は、いくつかの新しい機能を可能にします。
微調整の訓練されたモデルと新しいサンプルは、単にテーブルに追加するだけで実現できる。
我々の拡散モデルでは、共同のテキスト・イメージ・マルチモーダル・メトリックを利用することで、画像のみを訓練する。
論文 参考訳(メタデータ) (2022-04-06T14:13:35Z) - Mixture of basis for interpretable continual learning with distribution
shifts [1.6114012813668934]
データ分散のシフトを伴う環境での継続的な学習は、いくつかの現実世界のアプリケーションでは難しい問題である。
本稿では,この問題設定に対処するために,ベイシモデル(MoB)の混合方式を提案する。
論文 参考訳(メタデータ) (2022-01-05T22:53:15Z) - Few-shot Weakly-Supervised Object Detection via Directional Statistics [55.97230224399744]
少数ショットコモンオブジェクトローカライゼーション(COL)と少数ショット弱監視オブジェクト検出(WSOD)のための確率論的多重インスタンス学習手法を提案する。
本モデルでは,新しいオブジェクトの分布を同時に学習し,期待-最大化ステップにより局所化する。
提案手法は, 単純であるにもかかわらず, 少数のCOLとWSOD, 大規模WSODタスクにおいて, 高いベースラインを達成できることを示す。
論文 参考訳(メタデータ) (2021-03-25T22:34:16Z) - A Review of Single-Source Deep Unsupervised Visual Domain Adaptation [81.07994783143533]
大規模ラベル付きトレーニングデータセットにより、ディープニューラルネットワークは、幅広いベンチマークビジョンタスクを拡張できるようになった。
多くのアプリケーションにおいて、大量のラベル付きデータを取得するのは非常に高価で時間を要する。
限られたラベル付きトレーニングデータに対処するため、大規模ラベル付きソースドメインでトレーニングされたモデルを、疎ラベルまたは未ラベルのターゲットドメインに直接適用しようと試みている人も多い。
論文 参考訳(メタデータ) (2020-09-01T00:06:50Z) - $n$-Reference Transfer Learning for Saliency Prediction [73.17061116358036]
本稿では,サリエンシ予測のための数発のトランスファー学習パラダイムを提案する。
提案するフレームワークは勾配ベースでモデルに依存しない。
その結果,提案フレームワークは大幅な性能向上を実現していることがわかった。
論文 参考訳(メタデータ) (2020-07-09T23:20:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。