論文の概要: Subjective Face Transform using Human First Impressions
- arxiv url: http://arxiv.org/abs/2309.15381v2
- Date: Mon, 17 Mar 2025 19:40:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-19 14:12:25.087416
- Title: Subjective Face Transform using Human First Impressions
- Title(参考訳): 人間の第一印象を用いた主観的顔変換
- Authors: Chaitanya Roygaga, Joshua Krinsky, Kai Zhang, Kenny Kwok, Aparna Bharati,
- Abstract要約: この研究は生成モデルを用いて、認識属性を変更する顔画像に意味論的に意味のある編集を見つける。
我々は、実際の顔と合成顔のトレーニングを行い、予測モデルと人間の評価を用いてドメイン内画像とドメイン外画像の評価を行う。
- 参考スコア(独自算出の注目度): 4.6852346957345015
- License:
- Abstract: Humans tend to form quick subjective first impressions of non-physical attributes when seeing someone's face, such as perceived trustworthiness or attractiveness. To understand what variations in a face lead to different subjective impressions, this work uses generative models to find semantically meaningful edits to a face image that change perceived attributes. Unlike prior work that relied on statistical manipulation in feature space, our end-to-end framework considers trade-offs between preserving identity and changing perceptual attributes. It maps latent space directions to changes in attribute scores, enabling a perceptually significant identity-preserving transformation of any input face along an attribute axis according to a target change. We train on real and synthetic faces, evaluate for in-domain and out-of-domain images using predictive models and human ratings, demonstrating the generalizability of our approach. Ultimately, such a framework can be used to understand and explain trends and biases in subjective interpretation of faces that are not dependent on the subject's identity. This is demonstrated with improved model performance for first impression prediction when augmenting the training data with images generated by the proposed approach for a wider range of input to learn associations between face features and subjective attributes.
- Abstract(参考訳): 人間は、信頼感や魅力など、誰かの顔を見るとき、非物理的特性の素早い主観的な第一印象を形成する傾向がある。
顔の変動が主観的印象にどのような影響を及ぼすかを理解するために、この研究は生成モデルを用いて、知覚的属性を変化させる顔画像に意味論的に意味のある編集を見つける。
特徴空間における統計的操作に依存する以前の作業とは異なり、私たちのエンドツーエンドのフレームワークは、アイデンティティの保存と知覚的属性の変化の間のトレードオフを考慮に入れています。
潜在空間方向を属性スコアの変化にマッピングし、ターゲットの変化に応じて、任意の入力面の属性軸に沿って、知覚的に重要なアイデンティティ保存変換を可能にする。
我々は、実顔と合成顔のトレーニングを行い、予測モデルと人間の評価を用いてドメイン内画像とドメイン外画像の評価を行い、このアプローチの一般化可能性を示す。
究極的には、そのような枠組みは、被験者のアイデンティティに依存しない顔の主観的解釈における傾向と偏見を理解し、説明するために用いられる。
本手法は,顔の特徴と主観的属性の関係を学習するために,提案手法により生成した画像を用いてトレーニングデータを増強する際に,第1印象予測のためのモデル性能を改善した。
関連論文リスト
- When Does Perceptual Alignment Benefit Vision Representations? [76.32336818860965]
視覚モデル表現と人間の知覚的判断との整合がユーザビリティに与える影響について検討する。
モデルと知覚的判断を一致させることで、多くの下流タスクで元のバックボーンを改善する表現が得られることがわかった。
その結果,人間の知覚的知識に関する帰納バイアスを視覚モデルに注入することは,より良い表現に寄与することが示唆された。
論文 参考訳(メタデータ) (2024-10-14T17:59:58Z) - How Do You Perceive My Face? Recognizing Facial Expressions in Multi-Modal Context by Modeling Mental Representations [5.895694050664867]
本稿では,単純な分類タスクを超越した新しい表情分類手法を提案する。
本モデルでは,認識された顔を正確に分類し,文脈で顔を観察する際,人間によって知覚される対応する心的表現を合成する。
本研究では,人間の心的表現の近似を効果的に生成することを示す。
論文 参考訳(メタデータ) (2024-09-04T09:32:40Z) - When StyleGAN Meets Stable Diffusion: a $\mathscr{W}_+$ Adapter for
Personalized Image Generation [60.305112612629465]
テキストと画像の拡散モデルは、多種多様で高品質でフォトリアリスティックな画像を生成するのに優れている。
本稿では,拡散モデルのための拡張されたアイデンティティ保存とアンタングル化を実現するために,StyleGAN 埋め込み空間 $mathcalW_+$ の新たな利用法を提案する。
提案手法は,即時記述に適合するだけでなく,一般的なスタイルGAN編集方向に対応可能なパーソナライズされたテキスト・ツー・イメージ出力を生成する。
論文 参考訳(メタデータ) (2023-11-29T09:05:14Z) - Face Identity-Aware Disentanglement in StyleGAN [15.753131748318335]
StyleGANのプラグインであるPluGeN4Facesを導入する。
実験の結果,PluGeN4Facesによる顔属性の修正は,既存の最先端モデルに比べて画像の残像特性が有意に低侵襲であることがわかった。
論文 参考訳(メタデータ) (2023-09-21T12:54:09Z) - Explaining Bias in Deep Face Recognition via Image Characteristics [9.569575076277523]
2つのデータセットのセキュリティとユーザビリティの観点から,10種類の最先端の顔認識モデルを評価し,その妥当性を比較した。
次に,画像特性がモデル性能に与える影響を解析する。
論文 参考訳(メタデータ) (2022-08-23T17:18:23Z) - CIAO! A Contrastive Adaptation Mechanism for Non-Universal Facial
Expression Recognition [80.07590100872548]
本稿では、顔エンコーダの最後の層に異なるデータセットの特定の感情特性を適応させるメカニズムであるContrastive Inhibitory Adaptati On(CIAO)を提案する。
CIAOは、非常にユニークな感情表現を持つ6つの異なるデータセットに対して、表情認識性能が改善されている。
論文 参考訳(メタデータ) (2022-08-10T15:46:05Z) - TransFA: Transformer-based Representation for Face Attribute Evaluation [87.09529826340304]
我々はtextbfTransFA を用いたtextbfattribute 評価のための新しい textbf Transformer 表現を提案する。
提案するTransFAは,最先端手法と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2022-07-12T10:58:06Z) - SynFace: Face Recognition with Synthetic Data [83.15838126703719]
我々は、ID混在(IM)とドメイン混在(DM)を併用したSynFaceを考案し、パフォーマンスギャップを緩和する。
また、合成顔画像の系統的実験分析を行い、合成データを顔認識に効果的に活用する方法についての知見を提供する。
論文 参考訳(メタデータ) (2021-08-18T03:41:54Z) - Face Age Progression With Attribute Manipulation [11.859913430860335]
FAWAM (Face Age Progression with Attribute Manipulation) を提唱する。
タスクをボトムアップ方式で,顔年齢の進行と顔属性の操作という2つのサブモジュールとして扱う。
顔の老化には、年齢に応じた顔の変化をモデル化できるピラミッド生成対向ネットワークを備えた属性意識型顔の老化モデルを用いる。
論文 参考訳(メタデータ) (2021-06-14T18:26:48Z) - I Only Have Eyes for You: The Impact of Masks On Convolutional-Based
Facial Expression Recognition [78.07239208222599]
今回提案したFaceChannelがマスクを持つ人からの表情認識にどのように適応するかを評価します。
また、制約された社会的相互作用シナリオにおける顔の特徴の変化を学習し、組み合わせるためのFaceChannelの本質的な能力を示すために、特定の機能レベルの可視化も行います。
論文 参考訳(メタデータ) (2021-04-16T20:03:30Z) - Exploring Racial Bias within Face Recognition via per-subject
Adversarially-Enabled Data Augmentation [15.924281804465252]
本稿では,オブジェクト単位のデータセットバランスの実現を目的とした,新たな逆派生データ拡張手法を提案する。
我々の目的は、様々な人種領域にまたがる顔画像を変換することで、合成データセットを自動構築することである。
両面比較では,提案手法が(人種)少数集団の認識性能に与える影響が示唆された。
論文 参考訳(メタデータ) (2020-04-19T19:46:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。