論文の概要: Generation and Editing of Mandrill Faces: Application to Sex Editing and Assessment
- arxiv url: http://arxiv.org/abs/2409.12705v1
- Date: Thu, 19 Sep 2024 12:30:50 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-07 13:45:42.613974
- Title: Generation and Editing of Mandrill Faces: Application to Sex Editing and Assessment
- Title(参考訳): マンドリル顔の生成と編集:性的な編集と評価への応用
- Authors: Nicolas M. Dibot, Julien P. Renoult, William Puech,
- Abstract要約: 本稿では,男性や女性のマンドリルの顔画像を生成する手法を提案する。
提案手法の主な特徴は、特定のGANの潜伏空間における性軸を特定することによって、性別を編集する能力である。
さらに,実画像の分布から抽出した統計的特徴に基づく性別レベルの評価も行った。
- 参考スコア(独自算出の注目度): 6.800113478497425
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Generative AI has seen major developments in recent years, enhancing the realism of synthetic images, also known as computer-generated images. In addition, generative AI has also made it possible to modify specific image characteristics through image editing. Previous work has developed methods based on generative adversarial networks (GAN) for generating realistic images, in particular faces, but also to modify specific features. However, this work has never been applied to specific animal species. Moreover, the assessment of the results has been generally done subjectively, rather than quantitatively. In this paper, we propose an approach based on methods for generating images of faces of male or female mandrills, a non-human primate. The main novelty of proposed method is the ability to edit their sex by identifying a sex axis in the latent space of a specific GAN. In addition, we have developed an assessment of the sex levels based on statistical features extracted from real image distributions. The experimental results we obtained from a specific database are not only realistic, but also accurate, meeting a need for future work in behavioral experiments with wild mandrills.
- Abstract(参考訳): 生成AIは近年大きな発展を遂げており、コンピュータ生成画像として知られる合成画像のリアリズムを高めている。
さらに、生成AIは、画像編集によって特定の画像特性を変更することもできる。
従来の研究は、GAN(Generative Adversarial Network)に基づいて、現実的な画像、特に顔を生成する手法を開発してきた。
しかし、この研究は特定の動物種に適用されることはなかった。
さらに,結果の評価は定量的ではなく,主観的に行われている。
本稿では,非ヒト霊長類である雄および雌のマンドリルの顔画像を生成する手法に基づくアプローチを提案する。
提案手法の主な特徴は、特定のGANの潜伏空間における性軸を特定することによって、性別を編集する能力である。
さらに,実画像の分布から抽出した統計的特徴に基づく性別レベルの評価も行った。
特定のデータベースから得られた実験結果は、現実的なだけでなく、正確でもあり、野生のマンドリルを用いた行動実験における将来の研究の必要性を満たしている。
関連論文リスト
- A Hybrid Transformer-Sequencer approach for Age and Gender classification from in-wild facial images [1.7556999242499645]
本稿では,年齢と性別の分類問題に対する自己意識とBiLSTMアプローチを組み合わせたハイブリッドモデルを提案する。
提案モデルでは, 年齢と性別の分類のための最先端実装に比べて, 約10%, 6%の改善が注目されている。
論文 参考訳(メタデータ) (2024-03-19T06:40:06Z) - Unveiling the Truth: Exploring Human Gaze Patterns in Fake Images [34.02058539403381]
我々は、人間の意味的知識を活用して、偽画像検出のフレームワークに含まれる可能性を調べる。
予備的な統計的分析により、人間が本物の画像や変化した画像をどのように知覚するかの特徴的なパターンを探索する。
論文 参考訳(メタデータ) (2024-03-13T19:56:30Z) - Detecting Generated Images by Real Images Only [64.12501227493765]
既存の画像検出手法は、生成画像中の視覚的アーティファクトを検出したり、大規模なトレーニングによって、実画像と生成画像の両方から識別的特徴を学習する。
本稿では,新たな視点から生成した画像検出問題にアプローチする。
実画像の共通性を見つけ、特徴空間内の密接な部分空間にマッピングすることで、生成した画像は生成モデルに関係なくサブ空間の外側に投影される。
論文 参考訳(メタデータ) (2023-11-02T03:09:37Z) - MiVOLO: Multi-input Transformer for Age and Gender Estimation [0.0]
最新の視覚変換器を用いた年齢・性別推定手法であるMiVOLOを提案する。
本手法は両タスクを統合された二重入力/出力モデルに統合する。
モデルの年齢認識性能を人間レベルの精度と比較し、ほとんどの年齢範囲で人間よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-07-10T14:58:10Z) - DALL-Eval: Probing the Reasoning Skills and Social Biases of
Text-to-Image Generation Models [73.12069620086311]
テキスト・ツー・イメージ・モデルの視覚的推論能力と社会的バイアスについて検討する。
まず,物体認識,物体カウント,空間的関係理解という3つの視覚的推論スキルを計測する。
第2に、生成した画像の性別/肌の色調分布を測定することにより、性別と肌のトーンバイアスを評価する。
論文 参考訳(メタデータ) (2022-02-08T18:36:52Z) - Faces in the Wild: Efficient Gender Recognition in Surveillance
Conditions [0.0]
我々は、よく知られた3つの監視データセットのフロントとワイルドフェース版を提示する。
本研究では,自然環境下での性別認識に適した顔情報と身体情報を効果的に動的に組み合わせたモデルを提案する。
本モデルでは,学習可能な融合行列とチャネル・アテンション・サブネットワークを介して顔と身体の情報を組み合わせる。
論文 参考訳(メタデータ) (2021-07-14T17:02:23Z) - FP-Age: Leveraging Face Parsing Attention for Facial Age Estimation in
the Wild [50.8865921538953]
年齢推定に顔のセマンティクスを明示的に組み込む手法を提案する。
我々は,顔解析に基づくネットワークを設計し,異なるスケールで意味情報を学習する。
提案手法は,既存の年齢推定手法を常に上回っていることを示す。
論文 参考訳(メタデータ) (2021-06-21T14:31:32Z) - Ensembling with Deep Generative Views [72.70801582346344]
生成モデルは、色やポーズの変化などの現実世界の変動を模倣する人工画像の「ビュー」を合成することができる。
そこで本研究では, 画像分類などの下流解析作業において, 実画像に適用できるかどうかを検討する。
StyleGAN2を再生増強の源として使用し、顔の属性、猫の顔、車を含む分類タスクについてこの設定を調査します。
論文 参考訳(メタデータ) (2021-04-29T17:58:35Z) - PISE: Person Image Synthesis and Editing with Decoupled GAN [64.70360318367943]
人像合成と編集のための新しい二段階生成モデルであるPISEを提案する。
ヒトのポーズ伝達では,まず対象のポーズに合わせた人間のパーシングマップを合成し,衣服の形状を表現する。
衣服の形状とスタイルを分離するため,地域ごとの符号化と正規化を共同で提案する。
論文 参考訳(メタデータ) (2021-03-06T04:32:06Z) - Generating Person Images with Appearance-aware Pose Stylizer [66.44220388377596]
本稿では,人物のポーズや外見に基づいてリアルな人物画像を生成する,新しいエンドツーエンドフレームワークを提案する。
本フレームワークのコアとなるのは、ターゲットポーズと条件付き人物の外観を段階的に結合して人体画像を生成する、APS(Appearance-aware Pose Stylizer)と呼ばれる新しいジェネレータである。
論文 参考訳(メタデータ) (2020-07-17T15:58:05Z) - Pose Manipulation with Identity Preservation [0.0]
本稿では,文字適応性正規化GAN(CainGAN)を提案する。
CainGANは特定の個人から顔の数字を受け取り、その人物の身元を保存しながら新しい顔を生成する。
実験の結果, 生成画像の品質は, 推論時に使用する入力セットのサイズと一致していることがわかった。
論文 参考訳(メタデータ) (2020-04-20T09:51:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。