論文の概要: Mitigation of gender bias in automatic facial non-verbal behaviors generation
- arxiv url: http://arxiv.org/abs/2410.07274v1
- Date: Wed, 9 Oct 2024 06:41:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-31 21:16:57.971545
- Title: Mitigation of gender bias in automatic facial non-verbal behaviors generation
- Title(参考訳): 顔非言語行動自動生成における性差の軽減
- Authors: Alice Delbosc, Magalie Ochs, Nicolas Sabouret, Brian Ravenet, Stephane Ayache,
- Abstract要約: 非言語的手がかりから話者の性別を識別できる分類器を導入する。
本稿では,従来の行動生成モデルにジェンダー判別器と勾配反転層を統合した新しいモデルFairGenderGenを提案する。
- 参考スコア(独自算出の注目度): 0.45088680687810573
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Research on non-verbal behavior generation for social interactive agents focuses mainly on the believability and synchronization of non-verbal cues with speech. However, existing models, predominantly based on deep learning architectures, often perpetuate biases inherent in the training data. This raises ethical concerns, depending on the intended application of these agents. This paper addresses these issues by first examining the influence of gender on facial non-verbal behaviors. We concentrate on gaze, head movements, and facial expressions. We introduce a classifier capable of discerning the gender of a speaker from their non-verbal cues. This classifier achieves high accuracy on both real behavior data, extracted using state-of-the-art tools, and synthetic data, generated from a model developed in previous work.Building upon this work, we present a new model, FairGenderGen, which integrates a gender discriminator and a gradient reversal layer into our previous behavior generation model. This new model generates facial non-verbal behaviors from speech features, mitigating gender sensitivity in the generated behaviors. Our experiments demonstrate that the classifier, developed in the initial phase, is no longer effective in distinguishing the gender of the speaker from the generated non-verbal behaviors.
- Abstract(参考訳): 対話型エージェントの非言語行動生成に関する研究は、音声による非言語的手がかりの信頼性と同期に重点を置いている。
しかし、既存のモデルは、主にディープラーニングアーキテクチャに基づいており、トレーニングデータに固有のバイアスを持続させることが多い。
このことは、これらのエージェントの意図された適用に依存して、倫理的な懸念を提起する。
本稿では、まず、性別が顔の非言語行動に与える影響について検討する。
私たちは視線、頭の動き、表情に集中しています。
非言語的手がかりから話者の性別を識別できる分類器を導入する。
この分類器は, 従来の研究で開発されたモデルから生成した, 最先端ツールを用いて抽出した実行動データと合成データの両方に対して高い精度を達成し, 従来の行動生成モデルにジェンダー判別器と勾配反転層を統合した新しいモデルであるFairGenderGenを提案する。
本モデルでは, 音声特徴から顔非言語行動を生成し, 生成した行動の性別感受性を緩和する。
実験の結果,最初の段階で開発された分類器は,話者の性別と生成した非言語行動の区別に効果がないことが示された。
関連論文リスト
- Nonverbal Interaction Detection [83.40522919429337]
この研究は、社会的文脈における人間の非言語的相互作用を理解するという新たな課題に対処する。
我々はNVIと呼ばれる新しい大規模データセットを寄贈し、人間とそれに対応する社会グループのための境界ボックスを含むように細心の注意を払ってアノテートする。
第2に,非言語的インタラクション検出のための新たなタスクNVI-DETを構築し,画像から三つ子を識別する。
第3に,非言語相互作用検出ハイパーグラフ (NVI-DEHR) を提案する。
論文 参考訳(メタデータ) (2024-07-11T02:14:06Z) - Exploring Gender Biases in Language Patterns of Human-Conversational
Agent Conversations [1.0878040851638]
この研究は、人間とCAの相互作用における性バイアスの影響を深く掘り下げることを目的としている。
それは、CAsのジェンダーデザインによって、既存のジェンダーバイアスがどのように引き起こされるかを理解することを目的としている。
本研究の目的は,CAsにおけるジェンダーの割り当てが適切かどうかを問う,会話エージェントの倫理的デザインを通知することである。
論文 参考訳(メタデータ) (2024-01-05T19:11:17Z) - Will the Prince Get True Love's Kiss? On the Model Sensitivity to Gender
Perturbation over Fairytale Texts [87.62403265382734]
近年の研究では、伝統的な妖精は有害な性バイアスを伴っていることが示されている。
本研究は,ジェンダーの摂動に対する頑健さを評価することによって,言語モデルの学習バイアスを評価することを目的とする。
論文 参考訳(メタデータ) (2023-10-16T22:25:09Z) - Towards the generation of synchronized and believable non-verbal facial
behaviors of a talking virtual agent [0.0]
本稿では,会話中の仮想エージェントに対して,リズミカルな非言語的顔行動を生成する新しいモデルを提案する。
1つのデータではなく2つの異なるデータセットでモデルをトレーニングすることは、必ずしもパフォーマンスを向上するとは限らないことに気付きました。
また、学習期間中に偽の偽例が紹介される逆モデルを用いることで、音声との同期の知覚が向上することを示す。
論文 参考訳(メタデータ) (2023-09-15T07:25:36Z) - How well can Text-to-Image Generative Models understand Ethical Natural
Language Interventions? [67.97752431429865]
倫理的介入を加える際の画像の多様性への影響について検討した。
予備研究は、モデル予測の大きな変化が「性別の無視」のような特定のフレーズによって引き起こされることを示している。
論文 参考訳(メタデータ) (2022-10-27T07:32:39Z) - Gender Stereotyping Impact in Facial Expression Recognition [1.5340540198612824]
近年,機械学習に基づくモデルが表情認識(FER)における最も一般的なアプローチとなっている。
公開可能なFERデータセットでは、見かけ上の性別表現は概ねバランスが取れているが、個々のラベルでの性別表現はそうではない。
我々は、特定のラベルの性別比を変化させることで、異なる量のステレオタイプバイアスを持つ微分データセットを生成する。
我々は、最低バイアス条件下で、性別間の特定の感情の認識において、最大で29 % の差を観察する。
論文 参考訳(メタデータ) (2022-10-11T10:52:23Z) - CIAO! A Contrastive Adaptation Mechanism for Non-Universal Facial
Expression Recognition [80.07590100872548]
本稿では、顔エンコーダの最後の層に異なるデータセットの特定の感情特性を適応させるメカニズムであるContrastive Inhibitory Adaptati On(CIAO)を提案する。
CIAOは、非常にユニークな感情表現を持つ6つの異なるデータセットに対して、表情認識性能が改善されている。
論文 参考訳(メタデータ) (2022-08-10T15:46:05Z) - Are Commercial Face Detection Models as Biased as Academic Models? [64.71318433419636]
我々は学術的および商業的な顔検出システムを比較し、特にノイズに対する堅牢性について検討する。
現状の学術的顔検出モデルでは、ノイズの頑健性に人口格差があることがわかった。
私たちは、商用モデルは、常に学術モデルと同じくらいの偏り、あるいはより偏りがある、と結論付けます。
論文 参考訳(メタデータ) (2022-01-25T02:21:42Z) - Learning Graph Representation of Person-specific Cognitive Processes
from Audio-visual Behaviours for Automatic Personality Recognition [17.428626029689653]
本稿では,対象対象者固有の認知を,個人固有のCNNアーキテクチャの形で表現することを提案する。
各人物固有のCNNは、ニューラルアーキテクチャサーチ(NAS)と新しい適応損失関数によって探索される。
実験の結果,生成したグラフ表現は対象者の性格特性とよく関連していることがわかった。
論文 参考訳(メタデータ) (2021-10-26T11:04:23Z) - Responsible AI: Gender bias assessment in emotion recognition [6.833826997240138]
本研究は、顔認識のための深層学習手法における性別バイアスの研究を目的とする。
より多くのバイアスニューラルネットワークは、男性と女性のテストセット間の感情認識のより大きな精度のギャップを示しています。
論文 参考訳(メタデータ) (2021-03-21T17:00:21Z) - Multi-Dimensional Gender Bias Classification [67.65551687580552]
機械学習モデルは、性別に偏ったテキストでトレーニングする際に、社会的に望ましくないパターンを不注意に学習することができる。
本稿では,テキスト中の性バイアスを複数の実用的・意味的な次元に沿って分解する一般的な枠組みを提案する。
このきめ細かいフレームワークを用いて、8つの大規模データセットにジェンダー情報を自動的にアノテートする。
論文 参考訳(メタデータ) (2020-05-01T21:23:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。