論文の概要: Bias and Fairness on Multimodal Emotion Detection Algorithms
- arxiv url: http://arxiv.org/abs/2205.08383v1
- Date: Wed, 11 May 2022 20:03:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-22 10:58:29.172568
- Title: Bias and Fairness on Multimodal Emotion Detection Algorithms
- Title(参考訳): マルチモーダル感情検出アルゴリズムのバイアスと公正性
- Authors: Matheus Schmitz, Rehan Ahmed, Jimi Cao
- Abstract要約: マルチモーダルアプローチがシステムのバイアスと公平性に与える影響について検討する。
テキストだけではバイアスが最小であり、モデルのパフォーマンスの大部分を占めています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Numerous studies have shown that machine learning algorithms can latch onto
protected attributes such as race and gender and generate predictions that
systematically discriminate against one or more groups. To date the majority of
bias and fairness research has been on unimodal models. In this work, we
explore the biases that exist in emotion recognition systems in relationship to
the modalities utilized, and study how multimodal approaches affect system bias
and fairness. We consider audio, text, and video modalities, as well as all
possible multimodal combinations of those, and find that text alone has the
least bias, and accounts for the majority of the models' performances, raising
doubts about the worthiness of multimodal emotion recognition systems when bias
and fairness are desired alongside model performance.
- Abstract(参考訳): 多くの研究で、機械学習アルゴリズムは人種や性別などの保護された属性をラッチし、1つまたは複数のグループに対して体系的に差別する予測を生成することが示されている。
これまで、偏見と公平性の研究の大半は、単調なモデルに関するものだった。
本研究では,感情認識システムに存在するバイアスを,活用されたモダリティと関連づけて検討し,マルチモーダルアプローチがシステムのバイアスや公平性に与える影響について検討する。
我々は、音声、テキスト、ビデオのモダリティ、およびそれらすべての多様性の組み合わせを考慮し、テキストだけではバイアスが少ないこと、モデルのパフォーマンスの大部分を考慮し、モデルパフォーマンスと並行してバイアスと公平性が望まれるマルチモーダル感情認識システムの価値に対する疑問を提起する。
関連論文リスト
- MABR: A Multilayer Adversarial Bias Removal Approach Without Prior Bias Knowledge [6.208151505901749]
実世界のデータに基づいてトレーニングされたモデルは、しばしば既存の社会的バイアスを反映し、悪化させる。
本稿では,従来のバイアス型知識とは独立して機能する,新たな対人訓練戦略を提案する。
本手法は,人口統計学的アノテーションを必要とせずに,社会的バイアスを効果的に低減する。
論文 参考訳(メタデータ) (2024-08-10T09:11:01Z) - Fairness and Bias in Multimodal AI: A Survey [0.20971479389679337]
人工知能(AI)システムにおける公平性とバイアスに対処することの重要性は、過度に強調できない。
我々は,LMM(Large Multimodal Model)における,LMM(Large Language Model)とLLM(Large Language Model)の比較的最小の妥当性と偏見について,ギャップを埋める。
我々は、両方のタイプのAIに関連するデータセットとモデルの50例と、それらに影響を与えるバイアスの課題を提示します。
論文 参考訳(メタデータ) (2024-06-27T11:26:17Z) - A Multi-Task, Multi-Modal Approach for Predicting Categorical and
Dimensional Emotions [0.0]
分類的・次元的な感情を予測するマルチタスク・マルチモーダルシステムを提案する。
その結果,2種類の感情の相互規則化の重要性が強調された。
論文 参考訳(メタデータ) (2023-12-31T16:48:03Z) - Stable Bias: Analyzing Societal Representations in Diffusion Models [72.27121528451528]
本稿では,テキスト・ツー・イメージ(TTI)システムにおける社会的バイアスを探索する新しい手法を提案する。
我々のアプローチは、プロンプト内の性別や民族のマーカーを列挙して生成された画像の変動を特徴づけることに依存している。
我々はこの手法を利用して3つのTTIシステムによって生成された画像を分析し、そのアウトプットが米国の労働人口層と相関しているのに対して、彼らは常に異なる範囲において、限界化されたアイデンティティを低く表現している。
論文 参考訳(メタデータ) (2023-03-20T19:32:49Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - A Multibias-mitigated and Sentiment Knowledge Enriched Transformer for
Debiasing in Multimodal Conversational Emotion Recognition [9.020664590692705]
会話におけるマルチモーダル感情認識(mERC)は自然言語処理(NLP)において活発な研究課題である
無数の暗黙の偏見と先入観は人間の言語と会話を埋める。
既存のデータ駆動型mERCアプローチは、男性よりも女性の発話に対する感情的スコアが高い可能性がある。
論文 参考訳(メタデータ) (2022-07-17T08:16:49Z) - On Modality Bias Recognition and Reduction [70.69194431713825]
マルチモーダル分類の文脈におけるモダリティバイアス問題について検討する。
本稿では,各ラベルの特徴空間を適応的に学習するプラグアンドプレイ損失関数法を提案する。
本手法は, ベースラインに比べ, 顕著な性能向上を実現している。
論文 参考訳(メタデータ) (2022-02-25T13:47:09Z) - Are Commercial Face Detection Models as Biased as Academic Models? [64.71318433419636]
我々は学術的および商業的な顔検出システムを比較し、特にノイズに対する堅牢性について検討する。
現状の学術的顔検出モデルでは、ノイズの頑健性に人口格差があることがわかった。
私たちは、商用モデルは、常に学術モデルと同じくらいの偏り、あるいはより偏りがある、と結論付けます。
論文 参考訳(メタデータ) (2022-01-25T02:21:42Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。