論文の概要: Domain Adaptive Transfer Learning on Visual Attention Aware Data
Augmentation for Fine-grained Visual Categorization
- arxiv url: http://arxiv.org/abs/2010.03071v1
- Date: Tue, 6 Oct 2020 22:47:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 07:30:55.333597
- Title: Domain Adaptive Transfer Learning on Visual Attention Aware Data
Augmentation for Fine-grained Visual Categorization
- Title(参考訳): 細粒度視覚分類のための視覚注意意識データ拡張によるドメイン適応伝達学習
- Authors: Ashiq Imran and Vassilis Athitsos
- Abstract要約: ベースネットワークモデルに基づく微調整によるドメイン適応型知識伝達を行う。
我々は、注意認識データ拡張技術を用いて、アキュラシーの競争力の向上を示す。
提案手法は,複数の細粒度分類データセットにおける最先端結果を実現する。
- 参考スコア(独自算出の注目度): 3.5788754401889014
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fine-Grained Visual Categorization (FGVC) is a challenging topic in computer
vision. It is a problem characterized by large intra-class differences and
subtle inter-class differences. In this paper, we tackle this problem in a
weakly supervised manner, where neural network models are getting fed with
additional data using a data augmentation technique through a visual attention
mechanism. We perform domain adaptive knowledge transfer via fine-tuning on our
base network model. We perform our experiment on six challenging and commonly
used FGVC datasets, and we show competitive improvement on accuracies by using
attention-aware data augmentation techniques with features derived from deep
learning model InceptionV3, pre-trained on large scale datasets. Our method
outperforms competitor methods on multiple FGVC datasets and showed competitive
results on other datasets. Experimental studies show that transfer learning
from large scale datasets can be utilized effectively with visual attention
based data augmentation, which can obtain state-of-the-art results on several
FGVC datasets. We present a comprehensive analysis of our experiments. Our
method achieves state-of-the-art results in multiple fine-grained
classification datasets including challenging CUB200-2011 bird, Flowers-102,
and FGVC-Aircrafts datasets.
- Abstract(参考訳): Fine-Grained Visual Categorization (FGVC) はコンピュータビジョンにおける課題である。
クラス内差が大きいことやクラス間差が微妙であることが特徴である。
本稿では、ニューラルネットワークモデルが視覚的注意機構を通じてデータ拡張技術を用いて追加データによって供給されている弱い教師付き方法でこの問題に取り組む。
ベースネットワークモデルに基づく微調整によるドメイン適応型知識伝達を行う。
我々は,6つの挑戦的かつ一般的なFGVCデータセットの実験を行い,大規模データセットで事前学習した深層学習モデルInceptionV3の特徴を取り入れた注意認識データ拡張技術を用いて,アキュラシーの競争力向上を示す。
提案手法は,複数のFGVCデータセット上で競合する手法より優れ,他のデータセット上で競合する結果を示す。
大規模データセットからの転送学習は,複数のfgvcデータセットの最先端結果が得られる視覚注意に基づくデータ拡張により効果的に活用できることを示す。
我々は実験を総合的に分析する。
本手法は, CUB200-2011 Bird, Flowers-102, FGVC-Aircrafts といった細粒度分類データセットを用いて, 最先端の分類結果を実現する。
関連論文リスト
- Multi-OCT-SelfNet: Integrating Self-Supervised Learning with Multi-Source Data Fusion for Enhanced Multi-Class Retinal Disease Classification [2.5091334993691206]
網膜疾患診断のための堅牢なディープラーニングモデルの開発には、トレーニングのためのかなりのデータセットが必要である。
より小さなデータセットで効果的に一般化する能力は、依然として永続的な課題である。
さまざまなデータソースを組み合わせて、パフォーマンスを改善し、新しいデータに一般化しています。
論文 参考訳(メタデータ) (2024-09-17T17:22:35Z) - Advancing Fine-Grained Classification by Structure and Subject Preserving Augmentation [8.777277201807351]
本報告では,SaSPA: Structure and Subject Preserving Augmentationについて述べる。
本手法では, 実画像をガイダンスとして使用せず, 生成の柔軟性を高め, 多様性を高める。
従来のデータ拡張手法と最近のデータ拡張手法の両方に対して、広範な実験を行い、SaSPAをベンチマークする。
論文 参考訳(メタデータ) (2024-06-20T17:58:30Z) - Concept Drift and Long-Tailed Distribution in Fine-Grained Visual Categorization: Benchmark and Method [84.68818879525568]
コンセプションドリフトとLong-Tailed Distributionデータセットを提案する。
インスタンスの特徴は時間によって異なり、長い尾の分布を示す傾向がある。
本稿ではCDLTに関連する学習課題に対処する機能組換えフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-04T12:42:45Z) - Advanced Data Augmentation Approaches: A Comprehensive Survey and Future
directions [57.30984060215482]
データ拡張の背景、レビューされたデータ拡張技術の新しい包括的分類法、および各技術の強さと弱点(可能ならば)を提供する。
また、画像分類、オブジェクト検出、セマンティックセグメンテーションなどの3つの一般的なコンピュータビジョンタスクに対して、データ拡張効果の総合的な結果を提供する。
論文 参考訳(メタデータ) (2023-01-07T11:37:32Z) - Explored An Effective Methodology for Fine-Grained Snake Recognition [8.908667065576632]
我々は,様々なメタ情報を活用し,きめ細かい識別を支援するために,強力なマルチモーダルバックボーンを設計する。
ラベルのないデータセットを最大限に活用するために,自己教師付き学習と教師付き学習共同学習を用いる。
本手法は,個人用および公開用データセットにおいて,それぞれ92.7%,89.4%のマクロf1スコアを達成できる。
論文 参考訳(メタデータ) (2022-07-24T02:19:15Z) - Beyond Transfer Learning: Co-finetuning for Action Localisation [64.07196901012153]
同時に、複数のアップストリームとダウンストリームのタスクで1つのモデルをトレーニングする。
共ファインタニングは、同じデータ量を使用する場合、従来のトランスファーラーニングよりも優れていることを示す。
さらに、複数のアップストリームデータセットへのアプローチを簡単に拡張して、パフォーマンスをさらに向上する方法も示しています。
論文 参考訳(メタデータ) (2022-07-08T10:25:47Z) - CHALLENGER: Training with Attribution Maps [63.736435657236505]
ニューラルネットワークのトレーニングに属性マップを利用すると、モデルの正規化が向上し、性能が向上することを示す。
特に、我々の汎用的なドメインに依存しないアプローチは、ビジョン、自然言語処理、時系列タスクにおける最先端の結果をもたらすことを示す。
論文 参考訳(メタデータ) (2022-05-30T13:34:46Z) - Guiding Generative Language Models for Data Augmentation in Few-Shot
Text Classification [59.698811329287174]
我々は、GPT-2を用いて、分類性能を向上させるために、人工訓練インスタンスを生成する。
実験の結果,少数のラベルインスタンスでGPT-2を微調整すると,一貫した分類精度が向上することがわかった。
論文 参考訳(メタデータ) (2021-11-17T12:10:03Z) - Exploring Data Aggregation and Transformations to Generalize across
Visual Domains [0.0]
この論文は、ドメイン一般化(DG)、ドメイン適応(DA)およびそれらのバリエーションの研究に寄与する。
本稿では,機能集約戦略と視覚変換を利用するドメイン一般化とドメイン適応の新しいフレームワークを提案する。
提案手法が確立したDGおよびDAベンチマークにおいて,最先端の競争的アプローチよりも優れていることを示す。
論文 参考訳(メタデータ) (2021-08-20T14:58:14Z) - Learning Invariant Representations across Domains and Tasks [81.30046935430791]
本稿では,この教師なしタスク転送問題を解決するための新しいタスク適応ネットワーク(tan)を提案する。
ドメイン・アドバーサル・トレーニングによる伝達可能な機能を学習することに加えて、学習から学習への戦略を用いてタスクの意味を適応させる新しいタスク・セマンティクス・アダプタを提案する。
TANは最近の強いベースラインに比べてリコールとF1スコアを5.0%と7.8%大きく向上させた。
論文 参考訳(メタデータ) (2021-03-03T11:18:43Z) - The Utility of Feature Reuse: Transfer Learning in Data-Starved Regimes [6.419457653976053]
データ・スターベド・レシエーションを持つドメインに対する転送学習のユースケースについて述べる。
畳み込み特徴抽出と微調整の有効性を評価する。
我々はトランスファーラーニングがCNNアーキテクチャの性能を向上させることを結論付けている。
論文 参考訳(メタデータ) (2020-02-29T18:48:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。