論文の概要: $n$-Reference Transfer Learning for Saliency Prediction
- arxiv url: http://arxiv.org/abs/2007.05104v1
- Date: Thu, 9 Jul 2020 23:20:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-12 03:49:27.731906
- Title: $n$-Reference Transfer Learning for Saliency Prediction
- Title(参考訳): 給与予測のための$n$-reference transfer learning
- Authors: Yan Luo, Yongkang Wong, Mohan S. Kankanhalli, and Qi Zhao
- Abstract要約: 本稿では,サリエンシ予測のための数発のトランスファー学習パラダイムを提案する。
提案するフレームワークは勾配ベースでモデルに依存しない。
その結果,提案フレームワークは大幅な性能向上を実現していることがわかった。
- 参考スコア(独自算出の注目度): 73.17061116358036
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Benefiting from deep learning research and large-scale datasets, saliency
prediction has achieved significant success in the past decade. However, it
still remains challenging to predict saliency maps on images in new domains
that lack sufficient data for data-hungry models. To solve this problem, we
propose a few-shot transfer learning paradigm for saliency prediction, which
enables efficient transfer of knowledge learned from the existing large-scale
saliency datasets to a target domain with limited labeled examples.
Specifically, very few target domain examples are used as the reference to
train a model with a source domain dataset such that the training process can
converge to a local minimum in favor of the target domain. Then, the learned
model is further fine-tuned with the reference. The proposed framework is
gradient-based and model-agnostic. We conduct comprehensive experiments and
ablation study on various source domain and target domain pairs. The results
show that the proposed framework achieves a significant performance
improvement. The code is publicly available at
\url{https://github.com/luoyan407/n-reference}.
- Abstract(参考訳): ディープラーニングの研究と大規模なデータセットから恩恵を受けることで、この10年で大きな成功を収めた。
しかし、データハングリーモデルに十分なデータがない新しいドメインのイメージに対して、サリエンシマップを予測することは依然として困難である。
そこで本研究では,既存の大規模サリエンシデータセットから学習した知識を,限定的なラベル付き例で対象領域に効率的に転送する,サリエンシ予測のための数発転送学習パラダイムを提案する。
特に、ターゲットドメインの例はごくわずかであり、ソースドメインデータセットでモデルをトレーニングする参照として使われ、トレーニングプロセスがターゲットドメインに有利なローカル最小限に収束できるようにします。
そして、その参照により学習したモデルをさらに微調整する。
提案するフレームワークは勾配ベースでモデルに依存しない。
種々の源領域および対象領域対に関する包括的実験およびアブレーション研究を行う。
その結果,提案フレームワークの性能は大幅に向上した。
コードは \url{https://github.com/luoyan407/n-reference} で公開されている。
関連論文リスト
- SiamSeg: Self-Training with Contrastive Learning for Unsupervised Domain Adaptation Semantic Segmentation in Remote Sensing [14.007392647145448]
UDAは、ラベル付きソースドメインデータをトレーニングしながら、ラベルなしのターゲットドメインデータからモデルを学習することを可能にする。
コントラスト学習を UDA に統合し,セマンティック情報を取得する能力を向上させることを提案する。
我々のSimSegメソッドは既存の手法より優れ、最先端の結果が得られます。
論文 参考訳(メタデータ) (2024-10-17T11:59:39Z) - Forget Less, Count Better: A Domain-Incremental Self-Distillation
Learning Benchmark for Lifelong Crowd Counting [51.44987756859706]
オフザシェルフ法は複数のドメインを扱うのにいくつかの欠点がある。
生涯クラウドカウンティングは、壊滅的な忘れを緩和し、一般化能力を改善することを目的としている。
論文 参考訳(メタデータ) (2022-05-06T15:37:56Z) - Low-confidence Samples Matter for Domain Adaptation [47.552605279925736]
ドメイン適応(DA)は、知識をラベルの豊富なソースドメインから関連するがラベルの少ないターゲットドメインに転送することを目的としている。
低信頼度サンプルの処理による新しいコントラスト学習法を提案する。
提案手法を教師なしと半教師付きの両方のDA設定で評価する。
論文 参考訳(メタデータ) (2022-02-06T15:45:45Z) - Unified Instance and Knowledge Alignment Pretraining for Aspect-based
Sentiment Analysis [96.53859361560505]
Aspect-based Sentiment Analysis (ABSA) は、ある側面に対する感情の極性を決定することを目的としている。
事前トレーニングと下流ABSAデータセットの間には、常に深刻なドメインシフトが存在する。
我々は,バニラ・プレトレイン・ファインチューンパイプラインにアライメント事前訓練フレームワークを導入する。
論文 参考訳(メタデータ) (2021-10-26T04:03:45Z) - Few-shot Image Generation with Elastic Weight Consolidation [53.556446614013105]
少ないショット画像生成は、利用可能なトレーニング例がほとんどなく、与えられたドメインのより多くのデータを生成することを目指している。
対象ドメインのいくつかの例に、追加のパラメータを導入することなく、事前訓練されたモデルを適用する。
我々は,異なる対象領域の高品質な結果を生成することにより,アルゴリズムの有効性を実証する。
論文 参考訳(メタデータ) (2020-12-04T18:57:13Z) - A Review of Single-Source Deep Unsupervised Visual Domain Adaptation [81.07994783143533]
大規模ラベル付きトレーニングデータセットにより、ディープニューラルネットワークは、幅広いベンチマークビジョンタスクを拡張できるようになった。
多くのアプリケーションにおいて、大量のラベル付きデータを取得するのは非常に高価で時間を要する。
限られたラベル付きトレーニングデータに対処するため、大規模ラベル付きソースドメインでトレーニングされたモデルを、疎ラベルまたは未ラベルのターゲットドメインに直接適用しようと試みている人も多い。
論文 参考訳(メタデータ) (2020-09-01T00:06:50Z) - Learning to Cluster under Domain Shift [20.00056591000625]
本研究では、ソースデータとターゲットデータの両方にアノテーションがない場合に、ソースからターゲットドメインに知識を転送する問題に対処する。
ディープクラスタリングに関する最近の研究から着想を得た私たちのアプローチは、複数のソースドメインから収集されたデータからの情報を活用する。
本手法は,少数のサンプルが存在する場合でも,関連する意味情報を自動的に発見できることを示す。
論文 参考訳(メタデータ) (2020-08-11T12:03:01Z) - Domain Adaptation for Semantic Parsing [68.81787666086554]
本稿では,ドメイン適応のための新しいセマンティクスを提案する。このセマンティクスでは,ソースドメインと比較して,対象ドメインのアノテーション付きデータがはるかに少ない。
我々のセマンティックな利点は、2段階の粗大なフレームワークから得ており、2段階の異なる正確な処理を提供できる。
ベンチマークデータセットの実験により、我々の手法はいくつかの一般的なドメイン適応戦略より一貫して優れていることが示された。
論文 参考訳(メタデータ) (2020-06-23T14:47:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。