論文の概要: Generative Discrimination: What Happens When Generative AI Exhibits Bias, and What Can Be Done About It
- arxiv url: http://arxiv.org/abs/2407.10329v1
- Date: Wed, 26 Jun 2024 13:32:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-22 12:49:16.724913
- Title: Generative Discrimination: What Happens When Generative AI Exhibits Bias, and What Can Be Done About It
- Title(参考訳): ジェネレーティブ・差別:ジェネレーティブ・AIがバイアスを排出すると何が起こるのか、それについて何ができるのか
- Authors: Philipp Hacker, Brent Mittelstadt, Frederik Zuiderveen Borgesius, Sandra Wachter,
- Abstract要約: 第1章は、genAIが非差別法とどのように交わるかを考察する。
差別的アウトプットには2つの主要な種類がある: (i) 嫌悪的内容と (ii) 保護されたグループの不適切な表現による微妙なバイアス。
差別的なアウトプットに責任を負うgenAIプロバイダやデプロイの保持を主張し、genAI固有の問題に対処する従来の法的枠組みの不十分さを強調している。
- 参考スコア(独自算出の注目度): 2.2913283036871865
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: As generative Artificial Intelligence (genAI) technologies proliferate across sectors, they offer significant benefits but also risk exacerbating discrimination. This chapter explores how genAI intersects with non-discrimination laws, identifying shortcomings and suggesting improvements. It highlights two main types of discriminatory outputs: (i) demeaning and abusive content and (ii) subtler biases due to inadequate representation of protected groups, which may not be overtly discriminatory in individual cases but have cumulative discriminatory effects. For example, genAI systems may predominantly depict white men when asked for images of people in important jobs. This chapter examines these issues, categorizing problematic outputs into three legal categories: discriminatory content; harassment; and legally hard cases like unbalanced content, harmful stereotypes or misclassification. It argues for holding genAI providers and deployers liable for discriminatory outputs and highlights the inadequacy of traditional legal frameworks to address genAI-specific issues. The chapter suggests updating EU laws, including the AI Act, to mitigate biases in training and input data, mandating testing and auditing, and evolving legislation to enforce standards for bias mitigation and inclusivity as technology advances.
- Abstract(参考訳): ジェネレーティブ・人工知能(genAI)技術は、セクターにまたがって普及しているため、大きな利益を提供するだけでなく、差別を悪化させるリスクも与えている。
この章では、genAIが非差別法とどのように交わるかを説明し、欠点を特定し、改善を提案する。
主な2種類の識別出力を強調します。
一 軽蔑及び虐待の内容及び
二 保護集団の表現が不十分なことによる微妙な偏見は、個々の場合において過度に差別的ではなく、累積的な差別的効果を有する可能性がある。
例えば、GenAIシステムでは、重要な職にある人物のイメージを尋ねると、主に白人男性を描写することがある。
この章では、これらの問題を調査し、問題のあるアウトプットを、差別的コンテンツ、ハラスメント、不均衡コンテンツ、有害なステレオタイプまたは誤分類のような法的に困難なケースの3つの法的カテゴリに分類する。
差別的なアウトプットに責任を負うgenAIプロバイダやデプロイの保持を主張し、genAI固有の問題に対処する従来の法的枠組みの不十分さを強調している。
この章では、トレーニングと入力データのバイアスを軽減するためにAI法を含むEUの法律の更新、テストと監査を義務付けること、テクノロジーが進歩するにつれてバイアス緩和と傾きの基準を強制する法律の進化を推奨している。
関連論文リスト
- Hacking a surrogate model approach to XAI [49.1574468325115]
識別されたサブグループがブラックボックスADMシステムから肯定的な決定を下さない場合でも、対応するグループメンバーシップの問題は、必要に応じて低いレベルまで押し下げることができることを示す。
我々のアプローチは、他の代理モデルに容易に一般化できる。
論文 参考訳(メタデータ) (2024-06-24T13:18:02Z) - Auditing for Racial Discrimination in the Delivery of Education Ads [50.37313459134418]
本稿では,教育機会のための広告配信において,人種的偏見を評価できる新たな第三者監査手法を提案する。
メタのアルゴリズムによる教育機会の広告配信における人種差別の証拠を見つけ、法的および倫理的懸念を訴える。
論文 参考訳(メタデータ) (2024-06-02T02:00:55Z) - Implications of the AI Act for Non-Discrimination Law and Algorithmic Fairness [1.5029560229270191]
AIにおける公平性というトピックは、ここ数年で意味のある議論を巻き起こした。
法的な見地からは、多くのオープンな疑問が残る。
AI法は、これらの2つのアプローチをブリッジする大きな一歩を踏み出すかもしれない。
論文 参考訳(メタデータ) (2024-03-29T09:54:09Z) - Queering the ethics of AI [0.6993026261767287]
この章は、AIが差別を永続させる可能性をめぐる倫理的懸念を強調している。
この章は、しばしば非差別法を支える平等の概念に対する批判的な検証が必要であると主張している。
論文 参考訳(メタデータ) (2023-08-25T17:26:05Z) - Multi-dimensional discrimination in Law and Machine Learning -- A
comparative overview [14.650860450187793]
公正を意識した機械学習の領域は、AI/MLモデルにおけるバイアスの理解、緩和、説明のための方法とアルゴリズムに焦点を当てている。
実際には、人間のアイデンティティは多次元であり、複数の保護された特徴に基づいて識別を行うことができる。
この方向の最近のアプローチは、主に法域からのいわゆる交叉フェアネスの定義に従う。
論文 参考訳(メタデータ) (2023-02-12T20:41:58Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Reusing the Task-specific Classifier as a Discriminator:
Discriminator-free Adversarial Domain Adaptation [55.27563366506407]
非教師付きドメイン適応(UDA)のための識別器なし対向学習ネットワーク(DALN)を導入する。
DALNは、統一された目的によって明確なドメインアライメントとカテゴリの区別を達成する。
DALNは、さまざまなパブリックデータセット上の既存の最先端(SOTA)メソッドと比較して好意的に比較する。
論文 参考訳(メタデータ) (2022-04-08T04:40:18Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Bias and Discrimination in AI: a cross-disciplinary perspective [5.190307793476366]
我々は、AIにおけるバイアスと差別の解決策を見つけるには、堅牢な学際的コラボレーションが必要であることを示した。
我々は、技術的、法的、社会的、倫理的な側面を組み込んだ学際的な視点から、AIにおけるバイアスと差別に関する関連文献を調査した。
論文 参考訳(メタデータ) (2020-08-11T10:02:04Z) - What makes instance discrimination good for transfer learning? [82.79808902674282]
転送学習において,インスタンス識別の事前訓練がどのような効果があるかを検討する。
転送で本当に重要なのは、ハイレベルな表現ではなく、低レベルで中レベルの表現です。
教師付き事前訓練は、模範的なアプローチに従うことで強化することができる。
論文 参考訳(メタデータ) (2020-06-11T16:55:07Z) - Why Fairness Cannot Be Automated: Bridging the Gap Between EU
Non-Discrimination Law and AI [10.281644134255576]
欧州における差別の概念と既存の公正性に関する統計的尺度の間には、重大な矛盾がある。
我々は、人間ではなくAIが差別するときに、非差別法によって提供される法的保護がいかに挑戦されるかを示す。
標準基準統計量として「条件付き人口格差」(CDD)を提案する。
論文 参考訳(メタデータ) (2020-05-12T16:30:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。