論文の概要: Active Generation for Image Classification
- arxiv url: http://arxiv.org/abs/2403.06517v1
- Date: Mon, 11 Mar 2024 08:45:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-12 19:54:11.000162
- Title: Active Generation for Image Classification
- Title(参考訳): 画像分類のためのアクティブジェネレーション
- Authors: Tao Huang, Jiaqi Liu, Shan You, Chang Xu
- Abstract要約: 本稿では,モデルのニーズと特徴に着目し,画像生成の効率性に対処することを提案する。
能動学習の中心的傾向として,ActGenという手法が,画像生成のトレーニング・アウェア・アプローチを取り入れている。
- 参考スコア(独自算出の注目度): 50.18107721267218
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, the growing capabilities of deep generative models have underscored
their potential in enhancing image classification accuracy. However, existing
methods often demand the generation of a disproportionately large number of
images compared to the original dataset, while having only marginal
improvements in accuracy. This computationally expensive and time-consuming
process hampers the practicality of such approaches. In this paper, we propose
to address the efficiency of image generation by focusing on the specific needs
and characteristics of the model. With a central tenet of active learning, our
method, named ActGen, takes a training-aware approach to image generation. It
aims to create images akin to the challenging or misclassified samples
encountered by the current model and incorporates these generated images into
the training set to augment model performance. ActGen introduces an attentive
image guidance technique, using real images as guides during the denoising
process of a diffusion model. The model's attention on class prompt is
leveraged to ensure the preservation of similar foreground object while
diversifying the background. Furthermore, we introduce a gradient-based
generation guidance method, which employs two losses to generate more
challenging samples and prevent the generated images from being too similar to
previously generated ones. Experimental results on the CIFAR and ImageNet
datasets demonstrate that our method achieves better performance with a
significantly reduced number of generated images.
- Abstract(参考訳): 近年, 深部生成モデルの能力向上により, 画像分類精度の向上が図られている。
しかし、既存の手法では、元のデータセットに比べて不釣り合いに多くの画像を生成する必要があるが、精度はわずかに改善されている。
この計算的コストと時間のかかるプロセスは、そのようなアプローチの実践性を損なう。
本稿では,モデルの特定のニーズと特性に着目し,画像生成の効率性について考察する。
能動学習の中心的傾向として,ActGenという手法が,画像生成のトレーニング・アウェア・アプローチを取り入れている。
それは、現在のモデルで遭遇した困難または分類ミスのサンプルに似たイメージを作成し、これらの生成されたイメージをトレーニングセットに組み込んでモデルパフォーマンスを向上させることを目的としている。
actgenは、拡散モデルの雑音化過程において、実画像をガイドとして使用する、注意的な画像誘導技術を導入する。
モデルのクラスプロンプトに対する注意は、背景を多様化しながら、同様の前景オブジェクトの保存を保証するために活用される。
さらに, 2つの損失を用いてより困難なサンプルを生成し, 生成された画像が以前生成した画像と類似しすぎることを防止した, 勾配に基づく生成指導手法を提案する。
CIFAR と ImageNet のデータセットを用いた実験結果から,本手法は生成した画像の数を大幅に減らし,性能が向上することが示された。
関連論文リスト
- Class-Prototype Conditional Diffusion Model for Continual Learning with
Generative Replay [22.93569826848756]
破滅的な忘れ方を減らすことは、継続的な学習における重要なハードルである。
Deep Generative Replay (GR)は、モデルのメモリ能力を向上するために、以前のタスクからサンプルを生成する技術を提供する。
大きな問題は、生成したデータの品質がオリジナルのものと比べて低下することである。
CPDM(Class-Prototype Conditional Diffusion Model)を提案する。
論文 参考訳(メタデータ) (2023-12-10T17:39:42Z) - GeNIe: Generative Hard Negative Images Through Diffusion [17.829788448502057]
テキストプロンプトに条件付き拡散モデルであるGeNIeを導入し、対照的なデータポイントをマージする。
最近の画像編集法に触発されて、拡散イテレーションの数とノイズの量を制限する。
提案手法の有効性を,数ショット,長テール分布設定で検証し,本手法の有効性を実証した。
論文 参考訳(メタデータ) (2023-12-05T07:34:30Z) - Detecting Generated Images by Real Images Only [64.12501227493765]
既存の画像検出手法は、生成画像中の視覚的アーティファクトを検出したり、大規模なトレーニングによって、実画像と生成画像の両方から識別的特徴を学習する。
本稿では,新たな視点から生成した画像検出問題にアプローチする。
実画像の共通性を見つけ、特徴空間内の密接な部分空間にマッピングすることで、生成した画像は生成モデルに関係なくサブ空間の外側に投影される。
論文 参考訳(メタデータ) (2023-11-02T03:09:37Z) - Steered Diffusion: A Generalized Framework for Plug-and-Play Conditional
Image Synthesis [62.07413805483241]
Steered Diffusionは、無条件生成のために訓練された拡散モデルを用いたゼロショット条件画像生成のためのフレームワークである。
塗装,着色,テキスト誘導セマンティック編集,画像超解像などのタスクに対して,ステアリング拡散を用いた実験を行った。
論文 参考訳(メタデータ) (2023-09-30T02:03:22Z) - Conditional Generation from Unconditional Diffusion Models using
Denoiser Representations [94.04631421741986]
本稿では,学習したデノイザネットワークの内部表現を用いて,事前学習した非条件拡散モデルを新しい条件に適用することを提案する。
提案手法により生成した合成画像を用いたTiny ImageNetトレーニングセットの強化により,ResNetベースラインの分類精度が最大8%向上することを示す。
論文 参考訳(メタデータ) (2023-06-02T20:09:57Z) - Relational Inductive Biases for Object-Centric Image Generation [10.219833196479142]
本稿では,オブジェクト中心のリレーショナル表現に基づく条件付き画像生成手法を提案する。
本稿では,その構造と関連するスタイルを表す属性グラフ上の画像中の特定のオブジェクトの生成を条件付ける手法を提案する。
提案フレームワークは、基礎となるグラフと出力画像となる2Dグリッドの両方で動作する畳み込み演算子を組み合わせたニューラルネットワークアーキテクチャを用いて実装されている。
論文 参考訳(メタデータ) (2023-03-26T11:17:17Z) - Deep Image Fingerprint: Towards Low Budget Synthetic Image Detection and
Model Lineage Analysis [10.36919027402249]
本研究では,実際の画像と区別できない画像の新たな検出方法を提案する。
本手法は、既知の生成モデルから画像を検出し、微調整された生成モデル間の関係を確立することができる。
本手法は,Stable Diffusion とMidversa が生成した画像に対して,最先端の事前学習検出手法に匹敵する性能を実現する。
論文 参考訳(メタデータ) (2023-03-19T20:31:38Z) - Meta Internal Learning [88.68276505511922]
単一画像生成のための内部学習は、単一の画像に基づいて新しい画像を生成するようにジェネレータを訓練するフレームワークである。
本稿では,サンプル画像の内部統計をより効果的にモデル化するために,画像集合のトレーニングを可能にするメタラーニング手法を提案する。
以上の結果から, 得られたモデルは, 多数の共通画像アプリケーションにおいて, シングルイメージのGANと同程度に適していることがわかった。
論文 参考訳(メタデータ) (2021-10-06T16:27:38Z) - BIGRoC: Boosting Image Generation via a Robust Classifier [27.66648389933265]
生成した画像の画質と分布の忠実度を改善するための一般的なモデルに依存しない手法を提案する。
BIGRoCと呼ばれるこの手法は、与えられたロバストな分類器の誘導による後処理手順に基づいている。
論文 参考訳(メタデータ) (2021-08-08T18:05:44Z) - Counterfactual Generative Networks [59.080843365828756]
画像生成過程を直接監督せずに訓練する独立した因果機構に分解することを提案する。
適切な誘導バイアスを活用することによって、これらのメカニズムは物体の形状、物体の質感、背景を解き放つ。
その結果, 偽画像は, 元の分類タスクにおける性能の低下を伴い, 分散性が向上することが示された。
論文 参考訳(メタデータ) (2021-01-15T10:23:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。