論文の概要: How Could Equality and Data Protection Law Shape AI Fairness for People
with Disabilities?
- arxiv url: http://arxiv.org/abs/2107.05704v1
- Date: Mon, 12 Jul 2021 19:41:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-22 18:02:17.650030
- Title: How Could Equality and Data Protection Law Shape AI Fairness for People
with Disabilities?
- Title(参考訳): 障害者のための平等とデータ保護法はどのようにしてAIフェアネスを形成するのか?
- Authors: Reuben Binns, Reuben Kirkham
- Abstract要約: 本稿では,障害者に対する「AIフェアネス」の概念を,データ保護と平等法の観点から考察する。
我々は、差別法とデータ保護法が障害に関して適用される方法が異なるため、AIフェアネスに独特なアプローチが必要であると主張している。
- 参考スコア(独自算出の注目度): 14.694420183754332
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This article examines the concept of 'AI fairness' for people with
disabilities from the perspective of data protection and equality law. This
examination demonstrates that there is a need for a distinctive approach to AI
fairness that is fundamentally different to that used for other protected
characteristics, due to the different ways in which discrimination and data
protection law applies in respect of Disability. We articulate this new agenda
for AI fairness for people with disabilities, explaining how combining data
protection and equality law creates new opportunities for disabled people's
organisations and assistive technology researchers alike to shape the use of
AI, as well as to challenge potential harmful uses.
- Abstract(参考訳): 本稿では,障害者に対する「AIフェアネス」の概念を,データ保護と平等法の観点から考察する。
本研究は、差別とデータ保護法が障害に関して適用される方法が異なるため、他の保護された特徴に使用されるものと根本的に異なるaiフェアネスに対する独特のアプローチの必要性を示すものである。
データ保護と平等法を組み合わせることで、障害者の組織や補助的技術研究者がAIの使用を形作り、潜在的に有害な使用に挑戦する新たな機会が生まれるかを説明します。
関連論文リスト
- Disability data futures: Achievable imaginaries for AI and disability data justice [2.0549239024359762]
データとは、個人のアイデンティティが現代の状態やシステムでフィルタリングされる媒体である。
データとAIの歴史は、しばしば障害排除、抑圧、障害経験の削減の1つです。
この章は、人工知能と障害データ正義のための達成可能な想像力を記述するために、4人の学者と障害擁護者を集めている。
論文 参考訳(メタデータ) (2024-11-06T13:04:29Z) - Implications of the AI Act for Non-Discrimination Law and Algorithmic Fairness [1.5029560229270191]
AIにおける公平性というトピックは、ここ数年で意味のある議論を巻き起こした。
法的な見地からは、多くのオープンな疑問が残る。
AI法は、これらの2つのアプローチをブリッジする大きな一歩を踏み出すかもしれない。
論文 参考訳(メタデータ) (2024-03-29T09:54:09Z) - Compatibility of Fairness Metrics with EU Non-Discrimination Laws:
Demographic Parity & Conditional Demographic Disparity [3.5607241839298878]
実証的な証拠は、機械学習(ML)技術によって駆動されるアルゴリズムによる決定が、法的に保護されたグループに対する差別を脅かしたり、新たな不公平な情報源を創り出すことを示唆している。
この研究は、公正度メトリックと公正度制約による法的公正性を保証するためのポイントを評価することを目的としています。
我々の実験と分析は、手元にあるケースと法的正当性に応じて、AIによる意思決定が法的な観点から公平である可能性を示唆している。
論文 参考訳(メタデータ) (2023-06-14T09:38:05Z) - Causal Fairness for Outcome Control [68.12191782657437]
本稿では,自動システムにおいて,公平かつ公平な結果変数を最適化することを目的とした,結果制御と呼ばれる特定の意思決定タスクについて検討する。
本稿では、まず因果レンズを通して利益の概念を分析し、特定の個人が肯定的な決定によってどれだけの利益を得られるかを明らかにする。
次に、保護された属性の影響を受けている可能性があることに留意し、これを分析するために使用できる因果的ツールを提案する。
論文 参考訳(メタデータ) (2023-06-08T09:31:18Z) - Measuring Equality in Machine Learning Security Defenses: A Case Study
in Speech Recognition [56.69875958980474]
この研究は、学習したシステムを守るためのアプローチと、異なるサブ人口間でのセキュリティ防衛がパフォーマンス上の不平等をもたらす方法を検討する。
提案された多くの手法は、虚偽の拒絶やロバストネストレーニングの不平等といった直接的な害を引き起こす可能性がある。
本稿では, ランダム化スムースメントとニューラルリジェクションの2つの防御法の比較を行い, マイノリティ集団のサンプリング機構により, ランダム化スムースメントがより公平であることを見出した。
論文 参考訳(メタデータ) (2023-02-17T16:19:26Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Identifying, measuring, and mitigating individual unfairness for
supervised learning models and application to credit risk models [3.818578543491318]
AIソリューションにおける個人の不公平性を識別し緩和することに注力する。
また,グループフェアネスを達成するために,個人フェアネスを達成する技術が有効である範囲についても検討した。
個々の不公平性軽減技術に対応する実験結果が提示される。
論文 参考訳(メタデータ) (2022-11-11T10:20:46Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - Tackling Algorithmic Disability Discrimination in the Hiring Process: An
Ethical, Legal and Technical Analysis [2.294014185517203]
我々は、障害者差別に関連して、AIによる雇用によって引き起こされる懸念と機会について論じる。
私たちはいくつかの出発点を確立し、倫理主義者、議員、支持者、そしてAI実践者のためのロードマップを設計します。
論文 参考訳(メタデータ) (2022-06-13T13:32:37Z) - Trustworthy AI [75.99046162669997]
入力データの小さな敵対的変化への脆さ、決定の説明能力、トレーニングデータのバイアスに対処する能力は、最も顕著な制限である。
我々は,AIシステムに対するユーザおよび公的な信頼を高める上での6つの重要な問題に対処するために,信頼に値するAIに関するチュートリアルを提案する。
論文 参考訳(メタデータ) (2020-11-02T20:04:18Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。