論文の概要: Synthetic Data Generation for Emotional Depth Faces: Optimizing Conditional DCGANs via Genetic Algorithms in the Latent Space and Stabilizing Training with Knowledge Distillation
- arxiv url: http://arxiv.org/abs/2508.09188v1
- Date: Thu, 07 Aug 2025 23:00:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-14 20:42:00.59332
- Title: Synthetic Data Generation for Emotional Depth Faces: Optimizing Conditional DCGANs via Genetic Algorithms in the Latent Space and Stabilizing Training with Knowledge Distillation
- Title(参考訳): 感情深度顔の合成データ生成:潜在空間における遺伝的アルゴリズムによる条件付きDCGANの最適化と知識蒸留によるトレーニングの安定化
- Authors: Seyed Muhammad Hossein Mousavi, S. Younes Mirinezhad,
- Abstract要約: 知識蒸留(EMA教師モデル)を最適化したGANを用いた合成深度顔生成フレームワークを提案する。
また、画像統計に基づいてGAN潜伏ベクトルを進化させ、ターゲット感情の多様性と視覚的品質を高めるために遺伝的アルゴリズムを適用した。
分類では, LBP, HOG, Sobel edge, 強度ヒストグラムの特徴を抽出し, XGBoostで94%, 96%の精度で抽出した。
- 参考スコア(独自算出の注目度): 0.8287206589886879
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Affective computing faces a major challenge: the lack of high-quality, diverse depth facial datasets for recognizing subtle emotional expressions. We propose a framework for synthetic depth face generation using an optimized GAN with Knowledge Distillation (EMA teacher models) to stabilize training, improve quality, and prevent mode collapse. We also apply Genetic Algorithms to evolve GAN latent vectors based on image statistics, boosting diversity and visual quality for target emotions. The approach outperforms GAN, VAE, GMM, and KDE in both diversity and quality. For classification, we extract and concatenate LBP, HOG, Sobel edge, and intensity histogram features, achieving 94% and 96% accuracy with XGBoost. Evaluation using FID, IS, SSIM, and PSNR shows consistent improvement over state-of-the-art methods.
- Abstract(参考訳): 感情的コンピューティングは、微妙な感情的表現を認識するための高品質で多様な顔データセットの欠如という大きな課題に直面している。
本稿では,学習の安定化,品質の向上,モード崩壊防止のために,知識蒸留(EMA教師モデル)を最適化したGANを用いた合成深度顔生成フレームワークを提案する。
また、画像統計に基づいてGAN潜伏ベクトルを進化させ、ターゲット感情の多様性と視覚的品質を高めるために遺伝的アルゴリズムを適用した。
このアプローチは、多様性と品質の両方において、GAN、VAE、GMM、KDEを上回っます。
分類では,XGBoostで94%,96%の精度でLPP,HOG,Sobelエッジ,強度ヒストグラムの特徴を抽出し,連結する。
FID,IS,SSIM,PSNRを用いた評価では,最先端手法よりも一貫した改善が見られた。
関連論文リスト
- DGIQA: Depth-guided Feature Attention and Refinement for Generalizable Image Quality Assessment [9.851063768646847]
非参照画像品質評価における長年の課題は、自然歪みを目にしない客観的な一般化の欠如である。
我々は,シーンの深度と空間的特徴を構造認識表現に蒸留する,Depth-Guided Cross-attention and refinement 機構を新たに開発した。
マルチモーダルアテンションベースプロジェクション関数としてTCBとDepth-CARを実装し,最も有用な特徴を選択する。
実験により,提案したDGIQAモデルにより,総合的および真正なベンチマークデータセット上での最先端(SOTA)性能が得られた。
論文 参考訳(メタデータ) (2025-05-29T20:52:56Z) - Entropy-Driven Genetic Optimization for Deep-Feature-Guided Low-Light Image Enhancement [1.0428401220897083]
NSGA-IIアルゴリズムによって導かれる、教師なし、ファジィにインスパイアされた画像強調フレームワークを提案する。
我々は,複数の目標,すなわち画像エントロピーの増大,知覚的類似性の向上,適切な明るさを維持するために,GPU加速NSGA-IIアルゴリズムを用いる。
本モデルでは, 平均BRISQUEとNIQEのスコアが19.82と3.652であり, 全ての未ペアデータセットにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2025-05-16T13:40:56Z) - DCEvo: Discriminative Cross-Dimensional Evolutionary Learning for Infrared and Visible Image Fusion [58.36400052566673]
赤外線および可視画像融合は、異なるスペクトルバンドからの情報を統合して画質を向上させる。
既存のアプローチでは、画像融合とそれに続くハイレベルなタスクを別プロセスとして扱う。
本稿では、視覚的品質と知覚精度を同時に向上させるDCEvoと呼ばれる識別的クロス次元進化学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-22T07:01:58Z) - Variational Stochastic Gradient Descent for Deep Neural Networks [16.96187187108041]
変分勾配Descent (VSGD) は、効率的な勾配に基づく画像最適化手法である。
我々は、VSGDがAdamとSGDを2つの分類データセットと4つのディープニューラルネットワークアーキテクチャで上回っていることを示す。
論文 参考訳(メタデータ) (2024-04-09T18:02:01Z) - GenView: Enhancing View Quality with Pretrained Generative Model for Self-Supervised Learning [90.13980177575809]
GenViewは、ポジティブなビューの多様性を強化するコントロール可能なフレームワークである。
我々は、正のペアの品質を評価する品質駆動のコントラスト損失を導入する。
肯定的なビュー品質の改善と品質主導のコントラスト損失のおかげで、GenViewは自己教師型学習を大幅に改善した。
論文 参考訳(メタデータ) (2024-03-18T17:41:26Z) - DifAugGAN: A Practical Diffusion-style Data Augmentation for GAN-based
Single Image Super-resolution [88.13972071356422]
本稿では,DifAugGAN として知られる GAN ベースの画像超解像法(SR) のための拡散型データ拡張手法を提案する。
それは、訓練中の判別器の校正を改善するために、生成拡散モデルに拡散過程を適用することを含む。
我々のDifAugGANは、現在のGANベースのSISR手法のプラグ・アンド・プレイ戦略であり、判別器の校正を改善し、SR性能を向上させることができる。
論文 参考訳(メタデータ) (2023-11-30T12:37:53Z) - Genetic InfoMax: Exploring Mutual Information Maximization in
High-Dimensional Imaging Genetics Studies [50.11449968854487]
遺伝子ワイド・アソシエーション(GWAS)は、遺伝的変異と特定の形質の関係を同定するために用いられる。
画像遺伝学の表現学習は、GWASによって引き起こされる固有の課題により、ほとんど探索されていない。
本稿では,GWAS の具体的な課題に対処するために,トランスモーダル学習フレームワーク Genetic InfoMax (GIM) を提案する。
論文 参考訳(メタデータ) (2023-09-26T03:59:21Z) - Enhanced Sharp-GAN For Histopathology Image Synthesis [63.845552349914186]
病理組織像合成は、正確ながん検出のためのディープラーニングアプローチの訓練において、データ不足の問題に対処することを目的としている。
核トポロジと輪郭正則化を用いて合成画像の品質を向上させる新しい手法を提案する。
提案手法は、Sharp-GANを2つのデータセット上の4つの画像品質指標すべてで上回る。
論文 参考訳(メタデータ) (2023-01-24T17:54:01Z) - DeepSMILE: Contrastive self-supervised pre-training benefits MSI and HRD
classification directly from H&E whole-slide images in colorectal and breast
cancer [22.46523830554047]
ヘマトキシリンおよびエオシン染色腫瘍組織の全スライド画像(WSI)を解析するための深層学習に基づく弱ラベル学習法を提案する。
We apply DeepSMILE to the task of Homologous recombination deficiency (HRD) and microsatellite instability (MSI) prediction。
論文 参考訳(メタデータ) (2021-07-20T11:00:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。