論文の概要: Detection and Mitigation of Bias in Ted Talk Ratings
- arxiv url: http://arxiv.org/abs/2003.00683v1
- Date: Mon, 2 Mar 2020 06:13:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 05:05:04.058392
- Title: Detection and Mitigation of Bias in Ted Talk Ratings
- Title(参考訳): Ted Talk Ratingにおけるバイアスの検出と軽減
- Authors: Rupam Acharyya, Shouman Das, Ankani Chattoraj, Oishani Sengupta, Md
Iftekar Tanveer
- Abstract要約: 入射バイアスは行動条件であり、特定のグループのメンバーに所定の特性を付与する。
本稿では、社会的・職業的なパフォーマンスを評価する多様なソーシャルプラットフォームであるTEDTalksの視聴者評価における暗黙のバイアスを定量化する。
- 参考スコア(独自算出の注目度): 3.3598755777055374
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unbiased data collection is essential to guaranteeing fairness in artificial
intelligence models. Implicit bias, a form of behavioral conditioning that
leads us to attribute predetermined characteristics to members of certain
groups and informs the data collection process. This paper quantifies implicit
bias in viewer ratings of TEDTalks, a diverse social platform assessing social
and professional performance, in order to present the correlations of different
kinds of bias across sensitive attributes. Although the viewer ratings of these
videos should purely reflect the speaker's competence and skill, our analysis
of the ratings demonstrates the presence of overwhelming and predominant
implicit bias with respect to race and gender. In our paper, we present
strategies to detect and mitigate bias that are critical to removing unfairness
in AI.
- Abstract(参考訳): 非バイアスデータ収集は、人工知能モデルの公平性を保証するために不可欠である。
暗黙的バイアス(英: implicit bias)とは、特定のグループのメンバーに所定の特性を属性付けし、データ収集プロセスに通知する行動条件付けの形式である。
本稿では,ソーシャルおよびプロフェッショナルのパフォーマンスを評価する多彩なソーシャルプラットフォームであるtedtalksの視聴者評価における暗黙のバイアスを定量化し,敏感な属性間で異なるバイアスの相関関係を示す。
これらのビデオの視聴者評価は、話者の能力とスキルを純粋に反映するべきであるが、我々の評価は、人種や性別に対する圧倒的で圧倒的な偏見の存在を示している。
本稿では,AIにおける不公平性を取り除く上で重要なバイアスの検出と緩和戦略を提案する。
関連論文リスト
- Intertwined Biases Across Social Media Spheres: Unpacking Correlations in Media Bias Dimensions [12.588239777597847]
メディアバイアスは、ステレオタイプを強化し、社会的分裂を悪化させることによって、公共の認知を著しく形作る。
われわれは過去5年間にYouTubeとRedditから収集された新しいデータセットを紹介した。
私たちのデータセットには、幅広いバイアス次元にわたるYouTubeコンテンツの自動アノテーションが含まれています。
論文 参考訳(メタデータ) (2024-08-27T21:03:42Z) - Mitigating Biases in Collective Decision-Making: Enhancing Performance in the Face of Fake News [4.413331329339185]
これらのバイアスが偽ニュースの広範的問題に与える影響を、偽ニュースの見出しを識別する人間の能力を評価することによって検討する。
センシティブな特徴を含む見出しに焦点を合わせることで、人間の反応がバイアスによってどのように形作られるかを探るため、包括的なデータセットを集めます。
人口統計学的要因,見出しカテゴリー,情報の提示方法が人的判断の誤りに大きく影響していることを示す。
論文 参考訳(メタデータ) (2024-03-11T12:08:08Z) - Quantifying Bias in Text-to-Image Generative Models [49.60774626839712]
テキスト・トゥ・イメージ(T2I)モデルにおけるバイアスは不公平な社会的表現を伝播させ、アイデアを積極的にマーケティングしたり、議論の的となっている議題を推進したりするのに用いられる。
既存のT2Iモデルバイアス評価手法は、社会的バイアスのみに焦点を当てる。
本稿では,T2I生成モデルにおける一般バイアスの定量化手法を提案する。
論文 参考訳(メタデータ) (2023-12-20T14:26:54Z) - Gender Biases in Automatic Evaluation Metrics for Image Captioning [87.15170977240643]
画像キャプションタスクのためのモデルに基づく評価指標において、性別バイアスの体系的研究を行う。
偏りのある世代と偏りのない世代を区別できないことを含む、これらの偏りのあるメトリクスを使用することによる負の結果を実証する。
人間の判断と相関を損なうことなく、測定バイアスを緩和する簡便で効果的な方法を提案する。
論文 参考訳(メタデータ) (2023-05-24T04:27:40Z) - Unveiling the Hidden Agenda: Biases in News Reporting and Consumption [59.55900146668931]
イタリアのワクチン論争に関する6年間のデータセットを構築し、物語と選択バイアスを特定するためにベイジアン潜在空間モデルを採用する。
バイアスとエンゲージメントの間に非線形な関係が見られ、極端な位置へのエンゲージメントが高くなった。
Twitter上でのニュース消費の分析は、同様のイデオロギー的な立場のニュースメディアの間で、一般的なオーディエンスを明らかにしている。
論文 参考訳(メタデータ) (2023-01-14T18:58:42Z) - No Word Embedding Model Is Perfect: Evaluating the Representation
Accuracy for Social Bias in the Media [17.4812995898078]
我々は,米国オンラインニュース記事に存在する社会バイアスの種類を正確に測定するために,どのような埋め込みアルゴリズムが最適かを検討する。
我々は500万の記事を収集し、予想される社会的偏見に関して心理学文献をレビューする。
我々は、ニュース記事のアルゴリズムでトレーニングされたモデルが、期待される社会的バイアスをどう表すかを比較する。
論文 参考訳(メタデータ) (2022-11-07T15:45:52Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - The SAME score: Improved cosine based bias score for word embeddings [49.75878234192369]
埋め込みにおけるセマンティックバイアスのための新しいバイアススコアであるPetを紹介した。
本研究は,下水道作業における意味バイアスを測定し,社会的バイアスの潜在的な原因を特定することができることを示す。
論文 参考訳(メタデータ) (2022-03-28T09:28:13Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - Enabling News Consumers to View and Understand Biased News Coverage: A
Study on the Perception and Visualization of Media Bias [7.092487352312782]
手動で3つのアノテートデータセットを作成し、さまざまな視覚化戦略をテストする。
その結果, 対照群と比較して, 治療群の偏見に気付く効果は認められなかった。
多段階モデルを用いて、ジャーナリストの偏見は、記事の政治的極性や公平性に大きく関係していることがわかった。
論文 参考訳(メタデータ) (2021-05-20T10:16:54Z) - Grading video interviews with fairness considerations [1.7403133838762446]
本稿では,質問に対するビデオ応答に基づいて,候補者の社会的スキルを自動的に導き出す手法を提案する。
社会的スキルを予測するための2つの機械学習モデルを開発した。
我々は、人種と性別によるモデルの誤りを研究することによって、公正さを分析する。
論文 参考訳(メタデータ) (2020-07-02T10:06:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。