論文の概要: The Theory of Artificial Immutability: Protecting Algorithmic Groups
Under Anti-Discrimination Law
- arxiv url: http://arxiv.org/abs/2205.01166v1
- Date: Mon, 2 May 2022 19:19:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-04 14:30:03.264412
- Title: The Theory of Artificial Immutability: Protecting Algorithmic Groups
Under Anti-Discrimination Law
- Title(参考訳): 人工的不変性の理論:反差別法の下でのアルゴリズム群保護
- Authors: Sandra Wachter
- Abstract要約: 本論では,北米およびヨーロッパの非差別主義,法律,法学におけるアルゴリズム群の法的地位について考察する。
本稿では,AIグループを法の範囲に含めることを目的とした,新たな危害理論である「人工不変性理論」を提案する。
- 参考スコア(独自算出の注目度): 0.8460698440162889
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial Intelligence (AI) is increasingly used to make important decisions
about people. While issues of AI bias and proxy discrimination are well
explored, less focus has been paid to the harms created by profiling based on
groups that do not map to or correlate with legally protected groups such as
sex or ethnicity. This raises a question: are existing equality laws able to
protect against emergent AI-driven inequality? This article examines the legal
status of algorithmic groups in North American and European non-discrimination
doctrine, law, and jurisprudence and will show that algorithmic groups are not
comparable to traditional protected groups. Nonetheless, these new groups are
worthy of protection. I propose a new theory of harm - "the theory of
artificial immutability" - that aims to bring AI groups within the scope of the
law. My theory describes how algorithmic groups act as de facto immutable
characteristics in practice that limit people's autonomy and prevent them from
achieving important goals.
- Abstract(参考訳): 人工知能(AI)は、人々の重要な決定にますます使われています。
AIバイアスやプロキシ差別の問題はよく研究されているが、性や民族のような法的に保護されたグループにマップされていない、あるいは関連しないグループに基づいてプロファイリングによって生じる害に焦点が当てられている。
既存の平等法は、創発的なAI駆動の不平等から保護できるのだろうか?
本論では,北米およびヨーロッパの非差別主義,法学,法学におけるアルゴリズム群の法的地位について検討し,アルゴリズム群が伝統的保護グループに匹敵しないことを示す。
しかし、これらの新しいグループは保護に値する。
本稿では,AIグループを法の範囲に含めることを目的とした,新たな危害理論である「人工不変性理論」を提案する。
私の理論では、アルゴリズムグループが、人々の自律性を制限し、重要な目標を達成するのを防ぐ、事実上不変な特性として振舞う方法を記述しています。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Generative Discrimination: What Happens When Generative AI Exhibits Bias, and What Can Be Done About It [2.2913283036871865]
第1章は、genAIが非差別法とどのように交わるかを考察する。
差別的アウトプットには2つの主要な種類がある: (i) 嫌悪的内容と (ii) 保護されたグループの不適切な表現による微妙なバイアス。
差別的なアウトプットに責任を負うgenAIプロバイダやデプロイの保持を主張し、genAI固有の問題に対処する従来の法的枠組みの不十分さを強調している。
論文 参考訳(メタデータ) (2024-06-26T13:32:58Z) - Non-discrimination law in Europe: a primer for non-lawyers [44.715854387549605]
我々は、非法律家や非欧州の弁護士が、その内容や課題を容易に把握できるように、この法律を記述することを目指している。
我々は、多くのEU指令に含まれるEU全体の非差別規則を紹介します。
最後のセクションは、バイアス関連法とEU AI法および関連する法令の事例を含むための地平を広げている。
論文 参考訳(メタデータ) (2024-04-12T14:59:58Z) - Algorithmic Unfairness through the Lens of EU Non-Discrimination Law: Or
Why the Law is not a Decision Tree [5.153559154345212]
我々は、EUの非差別法は、コンピュータサイエンス文学において提案されたアルゴリズム的公正の概念と一致していることを示す。
公正度指標と技術的介入の規範的基盤を設定し、これらをEU司法裁判所の法的理由と比較した。
我々は、AI実践者や規制当局に影響を及ぼすと結論づける。
論文 参考訳(メタデータ) (2023-05-05T12:00:39Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Factoring the Matrix of Domination: A Critical Review and Reimagination
of Intersectionality in AI Fairness [55.037030060643126]
間欠性は、社会的不平等の持続性を調べるための重要な枠組みである。
我々は、公平性を効果的に運用するために、交差性を分析的枠組みとして採用することが重要であると論じる。
論文 参考訳(メタデータ) (2023-03-16T21:02:09Z) - Designing Equitable Algorithms [1.9006392177894293]
現在、予測アルゴリズムは、我々の社会の資源と制裁の大部分を分配するのに使われています。
これらのアルゴリズムは意思決定の効率と公平性を改善することができる。
しかし、彼らは特に人種、民族、性別のラインで格差を拡大し、悪化させる可能性がある。
論文 参考訳(メタデータ) (2023-02-17T22:00:44Z) - Multi-dimensional discrimination in Law and Machine Learning -- A
comparative overview [14.650860450187793]
公正を意識した機械学習の領域は、AI/MLモデルにおけるバイアスの理解、緩和、説明のための方法とアルゴリズムに焦点を当てている。
実際には、人間のアイデンティティは多次元であり、複数の保護された特徴に基づいて識別を行うことができる。
この方向の最近のアプローチは、主に法域からのいわゆる交叉フェアネスの定義に従う。
論文 参考訳(メタデータ) (2023-02-12T20:41:58Z) - Within-group fairness: A guidance for more sound between-group fairness [1.675857332621569]
我々は、いわゆる「内集団公正」という新しいフェアネスの概念を導入する。
グループ内公平度とグループ間公正度を同時に制御する学習アルゴリズムを開発した。
数値解析により,提案した学習アルゴリズムは,グループ間の公正さだけでなく,精度を犠牲にすることなくグループ内公正性を向上することが示された。
論文 参考訳(メタデータ) (2023-01-20T00:39:19Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Fairness for Image Generation with Uncertain Sensitive Attributes [97.81354305427871]
この研究は、画像超解像のような生成手順の文脈における公平性の問題に取り組む。
伝統的群フェアネスの定義は通常、指定された保護された群に関して定義されるが、本質的な真偽は存在しないことを強調する。
人口比率の自然拡大はグループ化に強く依存しており、明白に達成可能であることを示す。
論文 参考訳(メタデータ) (2021-06-23T06:17:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。