論文の概要: Stable Attribute Group Editing for Reliable Few-shot Image Generation
- arxiv url: http://arxiv.org/abs/2302.00179v1
- Date: Wed, 1 Feb 2023 01:51:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-02 18:12:55.225887
- Title: Stable Attribute Group Editing for Reliable Few-shot Image Generation
- Title(参考訳): 信頼性のある少数ショット画像生成のための安定属性グループ編集
- Authors: Guanqi Ding, Xinzhe Han, Shuhui Wang, Xin Jin, Dandan Tu, Qingming
Huang
- Abstract要約: 本稿では,編集ベースのフレームワークであるAttribute Group Editing (AGE) について述べる。
下流分類におけるGAN生成画像では,クラス不整合が一般的な問題であることがわかった。
我々は,SAGEの下流分類性能を,画素および周波数成分の増大により向上させることを提案する。
- 参考スコア(独自算出の注目度): 88.59350889410794
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot image generation aims to generate data of an unseen category based
on only a few samples. Apart from basic content generation, a bunch of
downstream applications hopefully benefit from this task, such as low-data
detection and few-shot classification. To achieve this goal, the generated
images should guarantee category retention for classification beyond the visual
quality and diversity. In our preliminary work, we present an ``editing-based''
framework Attribute Group Editing (AGE) for reliable few-shot image generation,
which largely improves the generation performance. Nevertheless, AGE's
performance on downstream classification is not as satisfactory as expected.
This paper investigates the class inconsistency problem and proposes Stable
Attribute Group Editing (SAGE) for more stable class-relevant image generation.
SAGE takes use of all given few-shot images and estimates a class center
embedding based on the category-relevant attribute dictionary. Meanwhile,
according to the projection weights on the category-relevant attribute
dictionary, we can select category-irrelevant attributes from the similar seen
categories. Consequently, SAGE injects the whole distribution of the novel
class into StyleGAN's latent space, thus largely remains the category retention
and stability of the generated images. Going one step further, we find that
class inconsistency is a common problem in GAN-generated images for downstream
classification. Even though the generated images look photo-realistic and
requires no category-relevant editing, they are usually of limited help for
downstream classification. We systematically discuss this issue from both the
generative model and classification model perspectives, and propose to boost
the downstream classification performance of SAGE by enhancing the pixel and
frequency components.
- Abstract(参考訳): 少数ショット画像生成は、少数のサンプルのみに基づいて、見えないカテゴリのデータを生成することを目的としている。
基本的なコンテンツ生成とは別に、ダウンストリームアプリケーションは、低データ検出や数ショットの分類など、このタスクの恩恵を期待できる。
この目的を達成するために、生成した画像は、視覚的品質と多様性を超えた分類のカテゴリー保持を保証する必要がある。
予備的な作業では,信頼性の高い少数ショット画像生成のための<editing-based'フレームワークであるAttribute Group Editing(AGE)を提案する。
それでも、下流分類におけるAGEのパフォーマンスは、期待したほど満足できない。
本稿では,クラス不整合問題を調査し,より安定したクラス関連画像生成のためのstable attribute group editing (sage)を提案する。
SAGEは与えられたいくつかの画像をすべて利用し、カテゴリ関連属性辞書に基づいてクラスセンターの埋め込みを推定する。
一方、カテゴリ関連属性辞書の投影重みによると、類似のカテゴリからカテゴリ関連属性を選択することができる。
その結果、SAGEはStyleGANの潜在空間に新しいクラスの分布全体を注入し、生成した画像のカテゴリ保持と安定性を保っている。
さらに,gan生成画像の下流分類では,クラス不整合が一般的な問題であることが判明した。
生成された画像はフォトリアリスティックに見え、カテゴリ関連編集を必要としないが、通常は下流分類の助けとなる。
生成モデルと分類モデルの両方の観点からこの問題を体系的に議論し、画素および周波数成分の増大によるSAGEの下流分類性能の向上を提案する。
関連論文リスト
- Diversified in-domain synthesis with efficient fine-tuning for few-shot
classification [64.86872227580866]
画像分類は,クラスごとのラベル付き例の小さなセットのみを用いて,画像分類器の学習を目的としている。
合成データを用いた数ショット学習における一般化問題に対処する新しいアプローチである DisEF を提案する。
提案手法を10種類のベンチマークで検証し,ベースラインを一貫して上回り,数ショット分類のための新しい最先端の手法を確立した。
論文 参考訳(メタデータ) (2023-12-05T17:18:09Z) - CHIP: Contrastive Hierarchical Image Pretraining [1.6454089842548987]
本稿では,任意の未確認クラスのオブジェクトを比較的一般的なカテゴリに分類できるワンショット/ファウショット分類モデルを提案する。
我々のモデルは、画像埋め込みから抽出した特徴に基づいてオブジェクトを分類するために、3レベルの階層的コントラスト損失ベースのResNet152を使用する。
論文 参考訳(メタデータ) (2023-10-12T13:11:38Z) - Image-free Classifier Injection for Zero-Shot Classification [72.66409483088995]
ゼロショット学習モデルは、訓練中に見られなかったクラスからのサンプルのイメージ分類において顕著な結果が得られる。
我々は,画像データを用いることなく,ゼロショット分類機能を備えた事前学習モデルの装備を目指す。
提案したイメージフリーインジェクション・ウィズ・セマンティックス (ICIS) でこれを実現する。
論文 参考訳(メタデータ) (2023-08-21T09:56:48Z) - Balanced Classification: A Unified Framework for Long-Tailed Object
Detection [74.94216414011326]
従来の検出器は、分類バイアスによる長期データを扱う際の性能劣化に悩まされる。
本稿では,カテゴリ分布の格差に起因する不平等の適応的是正を可能にする,BAlanced CLassification (BACL) と呼ばれる統一フレームワークを提案する。
BACLは、さまざまなバックボーンとアーキテクチャを持つさまざまなデータセット間で、一貫してパフォーマンス改善を実現している。
論文 参考訳(メタデータ) (2023-08-04T09:11:07Z) - Robust Image Ordinal Regression with Controllable Image Generation [12.787258917766005]
我々は、制御可能な画像生成に基づくCIGと呼ばれる新しいフレームワークを提案する。
私たちの基本的なアイデアは、カテゴリ境界に近い特定のラベルを持つ追加のトレーニングサンプルを生成することです。
我々は,新しいCIGアプローチの有効性を3つの異なる画像順序回帰シナリオで評価した。
論文 参考訳(メタデータ) (2023-05-07T08:10:56Z) - Attribute Group Editing for Reliable Few-shot Image Generation [85.52840521454411]
本稿では,画像生成のための新しい編集手法,すなわちAttribute Group Editing (AGE)を提案する。
AGEは、GANで学んだ内部表現を調べ、意味的に意味のある方向を識別する。
論文 参考訳(メタデータ) (2022-03-16T06:54:09Z) - A Compositional Feature Embedding and Similarity Metric for
Ultra-Fine-Grained Visual Categorization [16.843126268445726]
きめ細かい視覚分類(FGVC)は、クラス間の差異が小さいオブジェクトを分類することを目的としている。
本稿では,超微細な視覚分類のための新しい構成的特徴埋め込みと類似度指標(CECS)を提案する。
最近のベンチマーク手法を用いた2つの超FGVCデータセットと1つのFGVCデータセットの実験結果から,提案手法が最先端性能を実現することを一貫して示している。
論文 参考訳(メタデータ) (2021-09-25T15:05:25Z) - Reconciliation of Statistical and Spatial Sparsity For Robust Image and
Image-Set Classification [27.319334479994787]
分類のための画像や画像セットデータをモデル化するために,textitJ3Sと呼ばれる新しい統計空間スパース表現を提案する。
本稿では,J3Sモデルに基づく結合スパース符号化問題の解法を提案する。
実験の結果,提案手法はFMD, UIUC, ETH-80, YTCデータベース上での競合手法よりも高い性能を示した。
論文 参考訳(メタデータ) (2021-06-01T06:33:24Z) - I Am Going MAD: Maximum Discrepancy Competition for Comparing
Classifiers Adaptively [135.7695909882746]
我々は、MAD(Maximum Discrepancy)コンペティションを命名する。
任意に大きいラベル付き画像のコーパスから小さなテストセットを適応的にサンプリングする。
結果のモデル依存画像集合に人間のラベルを付けると、競合する分類器の相対的な性能が明らかになる。
論文 参考訳(メタデータ) (2020-02-25T03:32:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。