論文の概要: Detection of Racial Bias from Physiological Responses
- arxiv url: http://arxiv.org/abs/2102.01287v1
- Date: Tue, 2 Feb 2021 03:52:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-03 16:41:28.069157
- Title: Detection of Racial Bias from Physiological Responses
- Title(参考訳): 生理的反応による人種バイアスの検出
- Authors: Fateme Nikseresht, Runze Yan, Rachel Lew, Yingzheng Liu, Rose
M.Sebastian, Afsaneh Doryab
- Abstract要約: 本稿では,生理的反応から人種的偏見を確実に検出できるかどうかを検討する。
生理的データをEnpatica E4リストバンドで収集した46名の被験者のデータを分析した。
我々の機械学習と統計分析は、76.1%の精度で生理学的信号から暗黙の偏見を予測できることを示している。
- 参考スコア(独自算出の注目度): 2.6260952524631787
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the evolution of norms and regulations to mitigate the harm from
biases, harmful discrimination linked to an individual's unconscious biases
persists. Our goal is to better understand and detect the physiological and
behavioral indicators of implicit biases. This paper investigates whether we
can reliably detect racial bias from physiological responses, including heart
rate, conductive skin response, skin temperature, and micro-body movements. We
analyzed data from 46 subjects whose physiological data was collected with
Empatica E4 wristband while taking an Implicit Association Test (IAT). Our
machine learning and statistical analysis show that implicit bias can be
predicted from physiological signals with 76.1% accuracy. Our results also show
that the EDA signal associated with skin response has the strongest correlation
with racial bias and that there are significant differences between the values
of EDA features for biased and unbiased participants.
- Abstract(参考訳): 偏見から害を和らげるための規範や規制の進化にもかかわらず、個人の無意識バイアスに関連する有害な差別は続いている。
我々の目標は、暗黙のバイアスの生理的および行動的指標をよりよく理解し、検出することである。
本稿では,心拍数,伝導性皮膚反応,皮膚温度,微小体運動などの生理的反応から,人種的偏見を確実に検出できるかどうかを検討する。
インプリシット・アソシエーション・テスト (IAT) を施行中, Empatica E4 リストバンドを用いて生理データを収集した46名の被験者のデータを解析した。
機械学習と統計解析により、76.1%の精度で生理信号から暗黙のバイアスを予測できることが示された。
また,皮膚反応に関連するEDA信号は,人種的バイアスと最も強い相関関係を持ち,偏見のある参加者と偏見のない参加者のEDA特徴値には有意な差があることを示した。
関連論文リスト
- Explainable AI and Machine Learning Towards Human Gait Deterioration
Analysis [0.0]
歩行データを客観的に分析し,臨床関連バイオマーカーと所見を関連づける。
physioNet.orgデータセット毎の98% F1 sc の分類精度と、組み合わせたphysioNetデータセットの95.5% F1スコアを達成する。
論文 参考訳(メタデータ) (2023-06-12T14:53:00Z) - Uncovering Bias in Personal Informatics [5.01223893073719]
本稿では,個人情報学(PI)システムにおけるバイアスの包括的および分析的研究について紹介する。
これまでで最も詳細なフレームワークを使用して、さまざまなバイアス源を探索し、データ生成とモデル学習と実装ストリームの両方にバイアスが存在することを見つけました。
その結果, 糖尿病, 関節症, 高血圧などの健康上の問題を持つユーザ, 女性ユーザが最も影響を受けやすいグループとなった。
論文 参考訳(メタデータ) (2023-03-27T20:49:42Z) - Dataset Bias in Human Activity Recognition [57.91018542715725]
このコントリビューションは、トレーニングデータを統計的にキュレートし、人間の身体的特性がHARのパフォーマンスにどの程度影響するかを評価する。
時系列HARのセンサ,アクティビティ,記録の異なる2つのHARデータセット上で,最先端の畳み込みニューラルネットワークの性能を評価する。
論文 参考訳(メタデータ) (2023-01-19T12:33:50Z) - Race Bias Analysis of Bona Fide Errors in face anti-spoofing [0.0]
本稿では,3つの重要な特徴を持つ反スプーフに面した人種偏見の系統的研究について述べる。
焦点は、重大な倫理的および法的問題があるボナフェイドエラーの潜在的なバイアスを分析することにある。
本稿では,VQ-VAEに基づくフェース・アンチ・スプーフィング・アルゴリズムのバイアス解析プロセスについて述べる。
論文 参考訳(メタデータ) (2022-10-11T11:49:24Z) - A systematic study of race and sex bias in CNN-based cardiac MR
segmentation [6.507372382471608]
CNNを用いたセグメンテーションにおいて,トレーニングセットの不均衡が人種や性バイアスに与える影響について,最初の系統的研究を行った。
本研究は,短軸シン心磁気共鳴画像から心構造を抽出し,人種/性不均衡の異なる複数のCNNセグメンテーションモデルを訓練する。
性別実験では有意な偏見はないが、2つの異なる人種実験では有意な偏見が見られ、健康データセットにおける異なる人口集団の適切な表現を検討する必要性が浮き彫りになっている。
論文 参考訳(メタデータ) (2022-09-04T14:32:00Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Toward Understanding Bias Correlations for Mitigation in NLP [34.956581421295]
この研究は、緩和におけるバイアスの相関を理解するための最初の体系的な研究を提供することを目的としている。
我々は2つの共通NLPタスク(毒性検出と単語埋め込み)におけるバイアス緩和について検討する。
以上の結果から, 偏見は相関し, 独立性脱バイアスアプローチが不十分な現状が示唆された。
論文 参考訳(メタデータ) (2022-05-24T22:48:47Z) - Debiased Graph Neural Networks with Agnostic Label Selection Bias [59.61301255860836]
既存のグラフニューラルネットワーク(GNN)のほとんどは、データの選択バイアスを考慮せずに提案されている。
本稿では,デコリレーションレギュレータを区別した新しいデバイアスドグラフニューラルネットワーク(DGNN)を提案する。
DGNNは既存のGNNを強化するフレキシブルなフレームワークである。
論文 参考訳(メタデータ) (2022-01-19T16:50:29Z) - Anatomizing Bias in Facial Analysis [86.79402670904338]
既存の顔分析システムでは、特定の集団群に対して偏りのある結果が得られることが示されている。
これらのシステムは、個人の性別、アイデンティティ、肌のトーンに基づいて差別されないようにすることが義務づけられている。
これはAIシステムにおけるバイアスの識別と緩和の研究につながった。
論文 参考訳(メタデータ) (2021-12-13T09:51:13Z) - Correct block-design experiments mitigate temporal correlation bias in
EEG classification [68.85562949901077]
[1]の主主張は極めて過大評価されており、他の分析は間違った方法論的選択によって深刻な欠陥を負っていることを示す。
脳波の時間相関が2つの実験環境で同じモデルをテストすることによって分類精度に及ぼす影響について検討した。
論文 参考訳(メタデータ) (2020-11-25T22:25:21Z) - Robustness to Spurious Correlations via Human Annotations [100.63051542531171]
本稿では,人間に共通する因果関係の知識を活用して,素因関係に頑健なモデルを構築するための枠組みを提案する。
具体的には、人間のアノテーションを使用して、潜在的な未測定変数でトレーニング例を拡大する。
次に,未測定変数(UV-DRO)に対する分布性に頑健な新たな最適化手法を導入し,テスト時間シフトによる最悪の損失を制御する。
論文 参考訳(メタデータ) (2020-07-13T20:05:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。