論文の概要: Will Large-scale Generative Models Corrupt Future Datasets?
- arxiv url: http://arxiv.org/abs/2211.08095v1
- Date: Tue, 15 Nov 2022 12:25:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 15:01:04.552554
- Title: Will Large-scale Generative Models Corrupt Future Datasets?
- Title(参考訳): 大規模生成モデルは将来のデータセットを崩壊させるか?
- Authors: Ryuichiro Hataya and Han Bao and Hiromi Arai
- Abstract要約: 大規模テキスト画像生成モデルでは,ユーザのプロンプトから高品質でリアルな画像を生成することができる。
本論文は汚染を模擬してこの問題に実証的に答える。
生成した画像は下流のパフォーマンスに悪影響を及ぼすが、その重要性はタスクや生成した画像量に依存する。
- 参考スコア(独自算出の注目度): 5.593352892211305
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently proposed large-scale text-to-image generative models such as
DALL$\cdot$E 2, Midjourney, and StableDiffusion can generate high-quality and
realistic images from users' prompts. Not limited to the research community,
ordinary Internet users enjoy these generative models, and consequently a
tremendous amount of generated images have been shared on the Internet.
Meanwhile, today's success of deep learning in the computer vision field owes a
lot to images collected from the Internet. These trends lead us to a research
question: "will such generated images impact the quality of future datasets and
the performance of computer vision models positively or negatively?" This paper
empirically answers this question by simulating contamination. Namely, we
generate ImageNet-scale and COCO-scale datasets using a state-of-the-art
generative model and evaluate models trained on ``contaminated'' datasets on
various tasks including image classification and image generation. Throughout
experiments, we conclude that generated images negatively affect downstream
performance, while the significance depends on tasks and the amount of
generated images. The generated datasets are available via
https://github.com/moskomule/dataset-contamination.
- Abstract(参考訳): 最近提案されたdall$\cdot$e 2、midjourney、stablediffusionのような大規模テキストから画像への生成モデルでは、ユーザのプロンプトから高品質で現実的な画像を生成することができる。
研究コミュニティに限らず、一般のインターネットユーザーはこれらの生成モデルを楽しんでいるため、膨大な量の画像がインターネット上で共有されている。
一方、今日のコンピュータビジョン分野におけるディープラーニングの成功は、インターネットから集めた画像に大きく依存している。
このような生成されたイメージは、将来のデータセットの品質やコンピュータビジョンモデルのパフォーマンスに正か負かに影響を与えますか?
本論文は汚染を模擬してこの問題に実証的に答える。
具体的には,最先端生成モデルを用いてimagenet-scaleおよびcoco-scaleデータセットを生成し,画像分類や画像生成など,さまざまなタスクにおいて `conminated'' データセットでトレーニングされたモデルを評価する。
実験を通して,生成した画像は下流のパフォーマンスに悪影響を及ぼすが,その重要性はタスクや生成画像の量に依存すると結論づけた。
生成されたデータセットはhttps://github.com/moskomule/dataset-contaminationで入手できる。
関連論文リスト
- Community Forensics: Using Thousands of Generators to Train Fake Image Detectors [15.166026536032142]
AI生成画像を検出する上で重要な課題の1つは、これまで目に見えない生成モデルによって作成された画像を見つけることである。
従来よりも大きく,多様である新しいデータセットを提案する。
得られたデータセットには、4803の異なるモデルからサンプリングされた2.7Mイメージが含まれている。
論文 参考訳(メタデータ) (2024-11-06T18:59:41Z) - DataDream: Few-shot Guided Dataset Generation [90.09164461462365]
実データ分布をより忠実に表現する分類データセットを合成するためのフレームワークを提案する。
DataDream fine-tunes LoRA weights for the image generation model on the few real image before generated the training data using the adapt model。
次に、合成データを用いてCLIPのLoRA重みを微調整し、様々なデータセットに対する以前のアプローチよりも下流画像の分類を改善する。
論文 参考訳(メタデータ) (2024-07-15T17:10:31Z) - Toffee: Efficient Million-Scale Dataset Construction for Subject-Driven Text-to-Image Generation [58.09421301921607]
我々は、主観的画像編集と生成のための最初の大規模データセットを構築した。
データセットは、以前の最大のデータセットの5倍のサイズですが、コストは、何万時間も低いです。
論文 参考訳(メタデータ) (2024-06-13T16:40:39Z) - How to Trace Latent Generative Model Generated Images without Artificial Watermark? [88.04880564539836]
潜在生成モデルによって生成された画像に関する潜在的な誤用に関する懸念が持ち上がっている。
検査されたモデルの生成された画像をトレースするために,レイトタントトラッカーと呼ばれる潜時反転に基づく手法を提案する。
提案手法は,検査したモデルと他の画像から生成された画像とを高精度かつ効率的に識別できることを示す。
論文 参考訳(メタデータ) (2024-05-22T05:33:47Z) - Would Deep Generative Models Amplify Bias in Future Models? [29.918422914275226]
今後のコンピュータビジョンモデルにおいて、深層生成モデルが潜在的な社会的バイアスに与える影響について検討する。
我々は,COCOおよびCC3Mデータセットの原画像に,安定拡散により生成された画像に代えてシミュレーションを行う。
予想とは対照的に、トレーニング中に生成された画像を導入することはバイアスを均一に増幅しないことを示す。
論文 参考訳(メタデータ) (2024-04-04T06:58:39Z) - Improving the Effectiveness of Deep Generative Data [5.856292656853396]
下流の画像処理タスクのための純粋合成画像のモデルを訓練すると、実際のデータに対するトレーニングに比べ、望ましくない性能低下が生じる。
本稿では,この現象に寄与する要因を記述した新しい分類法を提案し,CIFAR-10データセットを用いて検討する。
本手法は,合成データと合成データの混合による学習と合成データのみの学習において,下流分類タスクのベースラインに優れる。
論文 参考訳(メタデータ) (2023-11-07T12:57:58Z) - Fake it till you make it: Learning transferable representations from
synthetic ImageNet clones [30.264601433216246]
ImageNetクローンは、合成画像と実画像で訓練されたモデルとのギャップの大部分を埋めることができることを示す。
合成画像上で訓練されたモデルは,強い一般化特性を示し,実際のデータで訓練されたモデルと同等に動作することを示す。
論文 参考訳(メタデータ) (2022-12-16T11:44:01Z) - Is synthetic data from generative models ready for image recognition? [69.42645602062024]
本研究では,最新のテキスト・画像生成モデルから生成した合成画像が,画像認識タスクにどのように利用できるかを検討した。
本稿では,既存の生成モデルからの合成データの強大さと欠点を示し,認識タスクに合成データを適用するための戦略を提案する。
論文 参考訳(メタデータ) (2022-10-14T06:54:24Z) - InvGAN: Invertible GANs [88.58338626299837]
InvGANはInvertible GANの略で、高品質な生成モデルの潜在空間に実際の画像を埋め込むことに成功した。
これにより、画像のインペイント、マージ、オンラインデータ拡張を実行できます。
論文 参考訳(メタデータ) (2021-12-08T21:39:00Z) - From ImageNet to Image Classification: Contextualizing Progress on
Benchmarks [99.19183528305598]
ImageNet作成プロセスにおける特定の設計選択が、結果のデータセットの忠実性に与える影響について検討する。
私たちの分析では、ノイズの多いデータ収集パイプラインが、結果のベンチマークと、それがプロキシとして機能する実世界のタスクとの間に、体系的なミスアライメントをもたらす可能性があることを指摘しています。
論文 参考訳(メタデータ) (2020-05-22T17:39:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。