論文の概要: Reinforcing Generated Images via Meta-learning for One-Shot Fine-Grained
Visual Recognition
- arxiv url: http://arxiv.org/abs/2204.10689v1
- Date: Fri, 22 Apr 2022 13:11:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-25 13:44:07.780493
- Title: Reinforcing Generated Images via Meta-learning for One-Shot Fine-Grained
Visual Recognition
- Title(参考訳): ワンショットファイングラインド視覚認識のためのメタラーニングによる生成画像の強化
- Authors: Satoshi Tsutsui, Yanwei Fu, David Crandall
- Abstract要約: 生成した画像と原画像を組み合わせるメタラーニングフレームワークを提案し,その結果の「ハイブリッド」訓練画像がワンショット学習を改善する。
実験では,1ショットのきめ細かい画像分類ベンチマークにおいて,ベースラインよりも一貫した改善が示された。
- 参考スコア(独自算出の注目度): 36.02360322125622
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One-shot fine-grained visual recognition often suffers from the problem of
having few training examples for new fine-grained classes. To alleviate this
problem, off-the-shelf image generation techniques based on Generative
Adversarial Networks (GANs) can potentially create additional training images.
However, these GAN-generated images are often not helpful for actually
improving the accuracy of one-shot fine-grained recognition. In this paper, we
propose a meta-learning framework to combine generated images with original
images, so that the resulting "hybrid" training images improve one-shot
learning. Specifically, the generic image generator is updated by a few
training instances of novel classes, and a Meta Image Reinforcing Network
(MetaIRNet) is proposed to conduct one-shot fine-grained recognition as well as
image reinforcement. Our experiments demonstrate consistent improvement over
baselines on one-shot fine-grained image classification benchmarks.
Furthermore, our analysis shows that the reinforced images have more diversity
compared to the original and GAN-generated images.
- Abstract(参考訳): ワンショットのきめ細かい視覚認識は、新しいきめ細かいクラスのトレーニング例が少ないという問題に苦しむことが多い。
この問題を軽減するために、GAN(Generative Adversarial Networks)に基づくオフザシェルフ画像生成技術は、追加のトレーニングイメージを作成する可能性がある。
しかし、これらのgan生成画像は、ワンショットの細粒度認識の精度を向上させるのに役に立たないことが多い。
本稿では,生成した画像と原画像を組み合わせたメタラーニングフレームワークを提案する。
具体的には、ジェネリックイメージジェネレータは、いくつかの新しいクラスのトレーニングインスタンスによって更新され、メタイメージ強化ネットワーク(MetaIRNet)は、1ショットのきめ細かい認識と画像強化を行うために提案されている。
本実験は,単発細粒度画像分類ベンチマークにおいて,ベースラインに対して一貫した改善を示す。
また,本解析により,補強画像はオリジナル画像やgan画像に比べて多様性が高いことが示された。
関連論文リスト
- Diverse and Tailored Image Generation for Zero-shot Multi-label Classification [3.354528906571718]
ゼロショットのマルチラベル分類は、人間のアノテーションを使わずに、目に見えないラベルで予測を実行する能力について、かなりの注目を集めている。
一般的なアプローチでは、目に見えないものに対する不完全なプロキシとしてクラスをよく使用します。
本稿では,未確認ラベル上でのプロキシレストレーニングに適したトレーニングセットを構築するために,合成データを生成する,革新的なソリューションを提案する。
論文 参考訳(メタデータ) (2024-04-04T01:34:36Z) - Active Generation for Image Classification [45.93535669217115]
本稿では,モデルのニーズと特徴に着目し,画像生成の効率性に対処することを提案する。
能動学習の中心的傾向として,ActGenという手法が,画像生成のトレーニング・アウェア・アプローチを取り入れている。
論文 参考訳(メタデータ) (2024-03-11T08:45:31Z) - CricaVPR: Cross-image Correlation-aware Representation Learning for Visual Place Recognition [73.51329037954866]
視覚的位置認識のための画像間相関認識を用いたロバストなグローバル表現手法を提案する。
本手法では,バッチ内の複数の画像の相関にアテンション機構を用いる。
本手法は,訓練時間を大幅に短縮し,最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-02-29T15:05:11Z) - Diversified in-domain synthesis with efficient fine-tuning for few-shot
classification [64.86872227580866]
画像分類は,クラスごとのラベル付き例の小さなセットのみを用いて,画像分類器の学習を目的としている。
合成データを用いた数ショット学習における一般化問題に対処する新しいアプローチである DisEF を提案する。
提案手法を10種類のベンチマークで検証し,ベースラインを一貫して上回り,数ショット分類のための新しい最先端の手法を確立した。
論文 参考訳(メタデータ) (2023-12-05T17:18:09Z) - DiffusePast: Diffusion-based Generative Replay for Class Incremental
Semantic Segmentation [73.54038780856554]
クラスインクリメンタルセマンティック(CISS)は、新たに追加されたクラスを漸進的に学習することで、従来のセグメンテーションタスクを拡張する。
これは、事前訓練されたGANから生成された古いクラスサンプルを再生するものである。
そこで我々はDiffusePastを提案する。DiffusePastは拡散型生成再生モジュールを特徴とする新しいフレームワークで、異なる命令でより信頼性の高いマスクで意味論的に正確な画像を生成する。
論文 参考訳(メタデータ) (2023-08-02T13:13:18Z) - Traditional Classification Neural Networks are Good Generators: They are
Competitive with DDPMs and GANs [104.72108627191041]
従来のニューラルネットワーク分類器は、最先端の生成モデルに匹敵する高品質な画像を生成することができることを示す。
マスクをベースとした再構成モジュールを提案し, 意味的勾配を意識し, 可視画像の合成を行う。
また,本手法は,画像テキスト基盤モデルに関して,テキスト・画像生成にも適用可能であることを示す。
論文 参考訳(メタデータ) (2022-11-27T11:25:35Z) - Audio-to-Image Cross-Modal Generation [0.0]
クロスモーダル表現学習は、異なるモーダルからの情報を1つの表現に統合することができる。
オーディオデータから画像アーキタイプを再構成するために、可変オートエンコーダ(VAE)を訓練する。
その結果, 生成した画像が相対的に不整合(多様性)である場合でも, 適切な画像分類に欠かせない特徴が保存されていることが示唆された。
論文 参考訳(メタデータ) (2021-09-27T21:25:31Z) - Match What Matters: Generative Implicit Feature Replay for Continual
Learning [0.0]
クラス増分学習のためのGenIFeR(Generative Implicit Feature Replay)を提案する。
主な目的は、GAN(Generative Adversarial Network)をトレーニングして、現実的な特徴を含む画像を生成することである。
我々は、GenIFeRが従来の生成画像と特徴再生の両方よりも優れていることを実証的に示す。
論文 参考訳(メタデータ) (2021-06-09T19:29:41Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z) - Arbitrary-sized Image Training and Residual Kernel Learning: Towards
Image Fraud Identification [10.47223719403823]
そこで本研究では,原入力尺度の画像の縮小を伴わずにトレーニングを行うフレームワークを提案する。
任意の大きさの画像トレーニング方法は、擬似バッチ勾配勾配に依存する。
学習した残余カーネルとPBGDにより,提案手法は画像不正識別における最先端の結果を達成した。
論文 参考訳(メタデータ) (2020-05-22T07:57:24Z) - Exploiting Deep Generative Prior for Versatile Image Restoration and
Manipulation [181.08127307338654]
本研究は, 大規模自然画像に基づいて学習したGAN(Generative Adversarial Network)により, 得られた画像の有効利用方法を示す。
深層生成前駆体(DGP)は、色、パッチ、解像度、様々な劣化した画像の欠落したセマンティクスを復元するための説得力のある結果を提供する。
論文 参考訳(メタデータ) (2020-03-30T17:45:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。