論文の概要: Causal effect of racial bias in data and machine learning algorithms on
user persuasiveness & discriminatory decision making: An Empirical Study
- arxiv url: http://arxiv.org/abs/2202.00471v2
- Date: Wed, 2 Feb 2022 03:20:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-06 10:06:01.601305
- Title: Causal effect of racial bias in data and machine learning algorithms on
user persuasiveness & discriminatory decision making: An Empirical Study
- Title(参考訳): データおよび機械学習アルゴリズムにおける人種バイアスのユーザ説得性と差別的意思決定に及ぼす影響:実証的研究
- Authors: Kinshuk Sengupta and Praveen Ranjan Srivastava
- Abstract要約: 言語データとモデルは、民族、宗教、ジェンダー、社会経済など、様々な種類の偏見を示している。
この研究の動機は、AIシステムがデータから偏見を排除し、説明できない差別的な結果を生み出す方法を研究することである。
この論文は、不平等なシステム設計による顧客の信頼性の低下に起因した損害のギャップを埋めるものである。
- 参考スコア(独自算出の注目度): 1.713291434132985
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Language data and models demonstrate various types of bias, be it ethnic,
religious, gender, or socioeconomic. AI/NLP models, when trained on the
racially biased dataset, AI/NLP models instigate poor model explainability,
influence user experience during decision making and thus further magnifies
societal biases, raising profound ethical implications for society. The
motivation of the study is to investigate how AI systems imbibe bias from data
and produce unexplainable discriminatory outcomes and influence an individual's
articulateness of system outcome due to the presence of racial bias features in
datasets. The design of the experiment involves studying the counterfactual
impact of racial bias features present in language datasets and its associated
effect on the model outcome. A mixed research methodology is adopted to
investigate the cross implication of biased model outcome on user experience,
effect on decision-making through controlled lab experimentation. The findings
provide foundation support for correlating the implication of carry-over an
artificial intelligence model solving NLP task due to biased concept presented
in the dataset. Further, the research outcomes justify the negative influence
on users' persuasiveness that leads to alter the decision-making quotient of an
individual when trying to rely on the model outcome to act. The paper bridges
the gap across the harm caused in establishing poor customer trustworthiness
due to an inequitable system design and provides strong support for
researchers, policymakers, and data scientists to build responsible AI
frameworks within organizations.
- Abstract(参考訳): 言語データとモデルは、民族、宗教、ジェンダー、社会経済など、様々な種類の偏見を示している。
AI/NLPモデルは、人種的に偏ったデータセットに基づいてトレーニングされると、モデル説明可能性の低下、意思決定時のユーザエクスペリエンスへの影響、社会的バイアスの増大、社会に深い倫理的影響をもたらす。
この研究の動機は、aiシステムがデータからバイアスを逸脱させ、説明不能な差別的結果を生み出し、データセットに人種的バイアスの特徴が存在することによる個人のシステム結果の明瞭さに影響を与えることにある。
実験の設計は、言語データセットに存在する人種バイアスの特徴の反事実的影響と、そのモデル結果に対する影響を研究することを含む。
混合研究手法を用いて、偏見モデルの結果がユーザ体験、制御実験による意思決定に与える影響を横断的に調査する。
この結果は、データセットに示される偏りのある概念により、NLPタスクを解決する人工知能モデルが持つ意味に関する基礎的なサポートを提供する。
さらに、研究成果は、行動するモデル結果に頼ろうとする際の個人の意思決定基準を変える原因となるユーザの説得力に対する否定的な影響を正当化する。
この論文は、不平等なシステム設計による顧客の信頼性の低下によって引き起こされる損害のギャップを埋め、研究者、政策立案者、データサイエンティストが組織内で責任あるAIフレームワークを構築するための強力な支援を提供する。
関連論文リスト
- GPT in Data Science: A Practical Exploration of Model Selection [0.7646713951724013]
この研究は、AI意思決定プロセスの理解を深めることにコミットしています。
我々の取り組みは、より透明で理解しやすいAIシステムの構築に向けられている。
論文 参考訳(メタデータ) (2023-11-20T03:42:24Z) - Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Sensitivity, Performance, Robustness: Deconstructing the Effect of
Sociodemographic Prompting [64.80538055623842]
社会デマトグラフィープロンプトは、特定の社会デマトグラフィープロファイルを持つ人間が与える答えに向けて、プロンプトベースのモデルの出力を操縦する技術である。
ソシオデマトグラフィー情報はモデル予測に影響を及ぼし、主観的NLPタスクにおけるゼロショット学習を改善するのに有用であることを示す。
論文 参考訳(メタデータ) (2023-09-13T15:42:06Z) - Ground(less) Truth: A Causal Framework for Proxy Labels in
Human-Algorithm Decision-Making [29.071173441651734]
人間のAI意思決定タスクにおけるプロキシラベルの有効性に影響を与える5つの変数バイアス源を同定する。
各バイアス間の関係を乱すための因果的枠組みを開発する。
今後の研究において、ターゲット変数バイアスに対処する機会について論じる。
論文 参考訳(メタデータ) (2023-02-13T16:29:11Z) - Picking on the Same Person: Does Algorithmic Monoculture lead to Outcome
Homogenization? [90.35044668396591]
機械学習における繰り返しのテーマはアルゴリズムによるモノカルチャーである。同じシステム、またはコンポーネントを共有するシステムは、複数の意思決定者によってデプロイされる。
意思決定者がトレーニングデータや特定のモデルなどのコンポーネントを共有すれば、より均一な結果が得られます。
我々はこの仮説をアルゴリズムフェアネスベンチマークで検証し、トレーニングデータの共有がホモジェナイゼーションを確実に悪化させることを示した。
結果の均質化に関する哲学的分析と社会的な課題を、デプロイされた機械学習システムに含めることに着目して結論付ける。
論文 参考訳(メタデータ) (2022-11-25T09:33:11Z) - Investigating Bias with a Synthetic Data Generator: Empirical Evidence
and Philosophical Interpretation [66.64736150040093]
機械学習の応用は、私たちの社会でますます広まりつつある。
リスクは、データに埋め込まれたバイアスを体系的に広めることである。
本稿では,特定の種類のバイアスとその組み合わせで合成データを生成するフレームワークを導入することにより,バイアスを分析することを提案する。
論文 参考訳(メタデータ) (2022-09-13T11:18:50Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Investigations of Performance and Bias in Human-AI Teamwork in Hiring [30.046502708053097]
AIによる意思決定では、効果的なハイブリッドチームワーク(ヒューマンAI)は、AIのパフォーマンスにのみ依存するものではない。
本研究では,モデルの予測性能とバイアスの両方が,推薦型意思決定タスクにおいてどのように人間に伝達されるかを検討する。
論文 参考訳(メタデータ) (2022-02-21T17:58:07Z) - Fairness-aware Summarization for Justified Decision-Making [16.47665757950391]
テキストベースニューラルネットワークの正当化における不公平性の問題に焦点をあてる。
本研究では,これらのモデルにおけるバイアスを検出し,対処するための,公平性を考慮した要約機構を提案する。
論文 参考訳(メタデータ) (2021-07-13T17:04:10Z) - Model Selection's Disparate Impact in Real-World Deep Learning
Applications [3.924854655504237]
アルゴリズムの公平性は、自動決定結果におけるバイアスデータの役割を強調している。
このような偏見の1つ、モデル選択における人間の嗜好は、人口集団間で異なる影響を及ぼす役割において、未解明のままである、と我々は主張する。
論文 参考訳(メタデータ) (2021-04-01T16:37:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。