論文の概要: Conditional Synthetic Food Image Generation
- arxiv url: http://arxiv.org/abs/2303.09005v1
- Date: Thu, 16 Mar 2023 00:23:20 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-17 17:22:17.668839
- Title: Conditional Synthetic Food Image Generation
- Title(参考訳): 条件付き合成食品画像生成
- Authors: Wenjin Fu, Yue Han, Jiangpeng He, Sriram Baireddy, Mridul Gupta,
Fengqing Zhu
- Abstract要約: GAN(Generative Adversarial Networks)はその強力な表現学習能力に基づいて画像合成のために広く研究されている。
本研究の目的は,食品画像生成のためのGAN法の性能向上と性能向上である。
- 参考スコア(独自算出の注目度): 12.235703733345833
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative Adversarial Networks (GAN) have been widely investigated for image
synthesis based on their powerful representation learning ability. In this
work, we explore the StyleGAN and its application of synthetic food image
generation. Despite the impressive performance of GAN for natural image
generation, food images suffer from high intra-class diversity and inter-class
similarity, resulting in overfitting and visual artifacts for synthetic images.
Therefore, we aim to explore the capability and improve the performance of GAN
methods for food image generation. Specifically, we first choose StyleGAN3 as
the baseline method to generate synthetic food images and analyze the
performance. Then, we identify two issues that can cause performance
degradation on food images during the training phase: (1) inter-class feature
entanglement during multi-food classes training and (2) loss of high-resolution
detail during image downsampling. To address both issues, we propose to train
one food category at a time to avoid feature entanglement and leverage image
patches cropped from high-resolution datasets to retain fine details. We
evaluate our method on the Food-101 dataset and show improved quality of
generated synthetic food images compared with the baseline. Finally, we
demonstrate the great potential of improving the performance of downstream
tasks, such as food image classification by including high-quality synthetic
training samples in the data augmentation.
- Abstract(参考訳): GAN(Generative Adversarial Networks)はその強力な表現学習能力に基づいて画像合成のために広く研究されている。
本研究では,合成食品画像生成のスタイルガンとその応用について検討する。
自然画像生成におけるGANの顕著な性能にもかかわらず、食品画像は、高いクラス内多様性とクラス間類似性に悩まされ、過剰適合と合成画像の視覚的アーティファクトをもたらす。
そこで本研究では,食品画像生成のためのGAN法の性能向上を図る。
具体的には,まず,合成食品画像の生成と性能解析のためのベースラインとしてstylegan3を選択した。
そして,訓練期間中に食品画像のパフォーマンス劣化を引き起こす2つの課題を同定した。(1) クラス間特徴の絡み合い,(2) イメージダウンサンプリング中に高精細度の詳細が失われることである。
この問題に対処するため,我々は1つの食品カテゴリを一度に訓練し,特徴の絡み合いを回避し,高解像度データセットから切り出された画像パッチを活用して詳細を保持することを提案する。
本手法をFood-101データセット上で評価し,生成した合成食品画像の品質をベースラインと比較した。
最後に,データ拡張に高品質な合成トレーニングサンプルを含めることで,食品画像分類などの下流タスクのパフォーマンス向上の可能性を示す。
関連論文リスト
- Long-tailed Food Classification [5.874935571318868]
本稿では,フード101-LTとVFN-LTを含む長期食品分類のための2つの新しいベンチマークデータセットを提案する。
本稿では,(1)本級における授業不均衡問題に対処する新しい2相枠組みを提案し,知識蒸留による学習情報の保持とともに冗長なサンプルを除去する。
本手法の有効性は,既存の最先端のロングテール分類法と比較し,Food101-LTとVFN-LTのベンチマークにおいて改善された性能を示す。
論文 参考訳(メタデータ) (2022-10-26T14:29:30Z) - A Survey on Training Challenges in Generative Adversarial Networks for
Biomedical Image Analysis [0.6308539010172307]
GAN(Generative Adversarial Networks)は、合成バイオメディカル画像の生成を通じて、データ制限に対処するために広く利用されている。
GANは、適切な合成画像の生成を妨げるいくつかの技術的課題を経験することができる。
本研究は, バイオメディカルイメージング領域におけるGANのトレーニング問題に対する解決策に基づく, レビューと分類について述べる。
論文 参考訳(メタデータ) (2022-01-19T15:23:46Z) - Biphasic Face Photo-Sketch Synthesis via Semantic-Driven Generative
Adversarial Network with Graph Representation Learning [10.34184872918574]
両顔写真スケッチ合成は、デジタルエンターテイメントや法執行機関といった幅広い分野に適用できる。
写実的な写真や鮮明なスケッチを作ることは、スケッチの質の低さと、実際のシーンにおける複雑な写真の変化によって、大きな課題に悩まされます。
本稿では,これらの問題に対処するためのセマンティック・ドリブン・ジェネレーティブ・アドバイザリ・ネットワークを提案する。
論文 参考訳(メタデータ) (2022-01-05T13:14:14Z) - A Large-Scale Benchmark for Food Image Segmentation [62.28029856051079]
我々は9,490枚の画像を含む新しい食品画像データセットFoodSeg103(およびその拡張FoodSeg154)を構築します。
これらの画像に154種類の成分を付加し,各画像は平均6つの成分ラベルと画素単位のマスクを有する。
ReLeMと呼ばれるマルチモダリティプリトレーニングアプローチを提案し、豊富なセマンティックな食品知識を持つセグメンテーションモデルを明確に装備します。
論文 参考訳(メタデータ) (2021-05-12T03:00:07Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z) - IMAGINE: Image Synthesis by Image-Guided Model Inversion [79.4691654458141]
IMGE-Guided Model INvErsion (IMAGINE) と呼ばれるインバージョンベースの手法を導入し、高品質で多様な画像を生成します。
我々は,事前学習した分類器から画像意味論の知識を活用し,妥当な世代を実現する。
IMAGINEは,1)合成中の意味的特異性制約を同時に実施し,2)ジェネレータトレーニングなしでリアルな画像を生成し,3)生成過程を直感的に制御する。
論文 参考訳(メタデータ) (2021-04-13T02:00:24Z) - Identity-Aware CycleGAN for Face Photo-Sketch Synthesis and Recognition [61.87842307164351]
まず,画像生成ネットワークの監視に新たな知覚損失を適用したIACycleGAN(Identity-Aware CycleGAN)モデルを提案する。
眼や鼻などの重要な顔領域の合成により多くの注意を払うことで、フォトエッチング合成におけるサイクガンを改善する。
IACycleGANによる画像の合成を反復的に行う合成モデルと認識モデルとの相互最適化手法を開発した。
論文 参考訳(メタデータ) (2021-03-30T01:30:08Z) - Synthetic Convolutional Features for Improved Semantic Segmentation [139.5772851285601]
本稿では、中間畳み込み特徴を生成することを提案し、そのような中間畳み込み特徴に対応する最初の合成手法を提案する。
これにより、ラベルマスクから新機能を生成し、トレーニング手順にうまく組み込むことができます。
Cityscapes と ADE20K の2つの挑戦的なデータセットに関する実験結果と分析により,生成した特徴がセグメンテーションタスクのパフォーマンスを向上させることが示された。
論文 参考訳(メタデータ) (2020-09-18T14:12:50Z) - Generative Hierarchical Features from Synthesizing Images [65.66756821069124]
画像合成の学習は、広範囲のアプリケーションにまたがって一般化可能な顕著な階層的な視覚的特徴をもたらす可能性があることを示す。
生成的階層的特徴(Generative Hierarchical Feature, GH-Feat)と呼ばれるエンコーダが生成する視覚的特徴は、生成的タスクと識別的タスクの両方に強い伝達性を有する。
論文 参考訳(メタデータ) (2020-07-20T18:04:14Z) - CookGAN: Meal Image Synthesis from Ingredients [24.295634252929112]
生成深度モデルに基づく新しい計算フレームワークを提案し,その成分のテキストリストから写真リアルな食品食のイメージを合成する。
CookGANは、注意に基づく材料イメージアソシエーションモデルを構築し、食事画像の合成を行う生成ニューラルネットワークの条件付けに使用される。
論文 参考訳(メタデータ) (2020-02-25T00:54:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。