論文の概要: Integrating Psychometrics and Computing Perspectives on Bias and
Fairness in Affective Computing: A Case Study of Automated Video Interviews
- arxiv url: http://arxiv.org/abs/2305.02629v1
- Date: Thu, 4 May 2023 08:05:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-05 16:28:46.085069
- Title: Integrating Psychometrics and Computing Perspectives on Bias and
Fairness in Affective Computing: A Case Study of Automated Video Interviews
- Title(参考訳): 感情的コンピューティングにおけるバイアスと公平性に関する心理計測とコンピューティングの視点の統合:自動ビデオインタビューの事例研究
- Authors: Brandon M Booth, Louis Hickman, Shree Krishna Subburaj, Louis Tay,
Sang Eun Woo, Sidney K. DMello
- Abstract要約: 本稿では、感情コンピューティングのための典型的な機械学習パイプラインに適用されるバイアスと公平性の表現を提供する。
公正さと偏見を測定するための様々な方法と指標が、米国の法的文脈における関連する意味とともに議論されている。
- 参考スコア(独自算出の注目度): 7.8034219994196174
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We provide a psychometric-grounded exposition of bias and fairness as applied
to a typical machine learning pipeline for affective computing. We expand on an
interpersonal communication framework to elucidate how to identify sources of
bias that may arise in the process of inferring human emotions and other
psychological constructs from observed behavior. Various methods and metrics
for measuring fairness and bias are discussed along with pertinent implications
within the United States legal context. We illustrate how to measure some types
of bias and fairness in a case study involving automatic personality and
hireability inference from multimodal data collected in video interviews for
mock job applications. We encourage affective computing researchers and
practitioners to encapsulate bias and fairness in their research processes and
products and to consider their role, agency, and responsibility in promoting
equitable and just systems.
- Abstract(参考訳): 我々は、感情コンピューティングのための典型的な機械学習パイプラインに適用される、心理測定に基づくバイアスと公平性の表現を提供する。
我々は対人コミュニケーションの枠組みを拡張し、観察された行動から人間の感情や他の心理的構成を推定する過程で生じる偏見の源を解明する。
公正さと偏見を測定するための様々な方法と指標が、米国の法的文脈における関連する意味とともに議論されている。
本研究は,ビデオインタビューで収集したマルチモーダルデータから,パーソナリティ自動推定と雇用可能性推定を応用したケーススタディにおいて,ある種のバイアスと公平性を測定する方法を示す。
我々は,感情的なコンピュータ研究者や実践者に対して,彼らの研究プロセスや製品にバイアスや公平性をカプセル化し,公平で公正なシステムを促進する上での役割,機関,責任を考えるよう促す。
関連論文リスト
- Fairness and Bias Mitigation in Computer Vision: A Survey [61.01658257223365]
コンピュータビジョンシステムは、高精細な現実世界のアプリケーションにますますデプロイされている。
歴史的または人為的なデータにおいて差別的な傾向を伝播または増幅しないことを確実にする必要がある。
本稿では,コンピュータビジョンの文脈における現在進行中の傾向と成功をまとめた,公平性に関する総合的な調査を行う。
論文 参考訳(メタデータ) (2024-08-05T13:44:22Z) - Exploring Conversational Agents as an Effective Tool for Measuring
Cognitive Biases in Decision-Making [0.65268245109828]
この研究は、さまざまなドメインにおける様々な認知バイアスを測定する効果的なツールとして、会話エージェントを探索することを目的としている。
フレーミングと損失回避バイアスを計測するための最初の実験は、会話エージェントがバイアスを測定するために効果的に使用できることを示している。
論文 参考訳(メタデータ) (2024-01-08T10:23:52Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Towards Fair and Explainable AI using a Human-Centered AI Approach [5.888646114353372]
分類システムと単語埋め込みにおける説明可能性と公平性の向上を目的とした5つの研究プロジェクトについて述べる。
最初のプロジェクトは、ローカルモデル説明を機械教師のインタフェースとして導入するユーティリティ/ダウンサイドについて検討する。
第二のプロジェクトは、因果性に基づくヒューマン・イン・ザ・ループ視覚ツールであるD-BIASを紹介し、データセットの社会的バイアスを特定し緩和する。
第3のプロジェクトは、グループに対するバイアスに対するトレーニング済みの静的単語埋め込みの監査を支援する、ビジュアルインタラクティブツールであるWordBiasを提示する。
4番目のプロジェクトは、ソーシャルを識別するビジュアル分析ツールDramatVis Personae
論文 参考訳(メタデータ) (2023-06-12T21:08:55Z) - Expanding the Role of Affective Phenomena in Multimodal Interaction
Research [57.069159905961214]
マルチモーダルインタラクション, 感情計算, 自然言語処理において, 選ばれたカンファレンスから16,000以上の論文を調査した。
本論文では,感情関連論文910を同定し,情緒現象の役割について分析した。
我々は、人間の社会的行動や認知状態の機械的理解を高めるために、AIシステムによって感情と感情の予測がどのように使用されるかについて、限られた研究結果を得た。
論文 参考訳(メタデータ) (2023-05-18T09:08:39Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Measuring and signing fairness as performance under multiple stakeholder
distributions [39.54243229669015]
学習システムの公正度を測定するための最良のツールは、数学的ワンライナーとしてカプセル化された剛性公正度メトリクスである。
本稿では, フェアネス指標の定式化から, それらが計算される例の分布の算出に焦点を移すことを提案する。
ストレステストのための完全な実装ガイドラインを提供し、このフレームワークの利点と欠点の両方を説明します。
論文 参考訳(メタデータ) (2022-07-20T15:10:02Z) - Co-Located Human-Human Interaction Analysis using Nonverbal Cues: A
Survey [71.43956423427397]
本研究の目的は,非言語的キューと計算手法を同定し,効果的な性能を実現することである。
この調査は、最も広い範囲の社会現象と相互作用設定を巻き込むことによって、相手と異なる。
もっともよく使われる非言語キュー、計算方法、相互作用環境、センシングアプローチは、それぞれマイクとカメラを備えた3,4人で構成される会話活動、ベクターマシンのサポート、ミーティングである。
論文 参考訳(メタデータ) (2022-07-20T13:37:57Z) - Human Trajectory Forecasting in Crowds: A Deep Learning Perspective [89.4600982169]
本稿では,既存の深層学習に基づくソーシャルインタラクションのモデル化手法について詳細に分析する。
本稿では、これらの社会的相互作用を効果的に捉えるための知識に基づく2つのデータ駆動手法を提案する。
我々は,人間の軌道予測分野において,重要かつ欠落したコンポーネントであるTrajNet++を大規模に開発する。
論文 参考訳(メタデータ) (2020-07-07T17:19:56Z) - Leveraging Multimodal Behavioral Analytics for Automated Job Interview
Performance Assessment and Feedback [0.5872014229110213]
行動的手がかりは人間のコミュニケーションや認知に重要な役割を果たす。
本稿では,インタビューシナリオにおける候補の分析を行うマルチモーダル分析フレームワークを提案する。
我々はこれらのマルチモーダルデータソースを用いて複合表現を構築し、機械学習分類器を訓練してクラスラベルを予測する。
論文 参考訳(メタデータ) (2020-06-14T14:20:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。