論文の概要: Discrimination, artificial intelligence, and algorithmic decision-making
- arxiv url: http://arxiv.org/abs/2510.13465v1
- Date: Wed, 15 Oct 2025 12:13:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.660485
- Title: Discrimination, artificial intelligence, and algorithmic decision-making
- Title(参考訳): 識別、人工知能、アルゴリズムによる意思決定
- Authors: Frederik Zuiderveen Borgesius,
- Abstract要約: この研究は、欧州評議会の反差別部門のためにZuiderveen Borgesius教授によって準備された。
アルゴリズムによる意思決定やその他の人工知能(AI)による差別のリスクについて詳述する。
- 参考スコア(独自算出の注目度): 0.2262632497140704
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial intelligence (AI) has a huge impact on our personal lives and also on our democratic society as a whole. While AI offers vast opportunities for the benefit of people, its potential to embed and perpetuate bias and discrimination remains one of the most pressing challenges deriving from its increasing use. This new study, which was prepared by Prof. Frederik Zuiderveen Borgesius for the Anti-discrimination Department of the Council of Europe, elaborates on the risks of discrimination caused by algorithmic decision-making and other types of artificial intelligence (AI).
- Abstract(参考訳): 人工知能(AI)は私たちの個人生活や民主社会全体に大きな影響を与えます。
AIは人々の利益のために大きな機会を提供するが、偏見と差別を埋め込んで永続する能力は、その利用の増加に起因する最も急進的な課題の1つだ。
この新たな研究は、欧州評議会の差別対策部門でFrederik Zuiderveen Borgesius教授が作成したもので、アルゴリズムによる意思決定やその他の人工知能(AI)による差別のリスクについて詳しく研究している。
関連論文リスト
- Unequal Uncertainty: Rethinking Algorithmic Interventions for Mitigating Discrimination from AI [38.122893275090206]
人工知能の予測の不確実性は、AI支援による意思決定に緊急の法的および倫理的課題をもたらす。
人間のAI協力のためのガードレールとして機能する2つのアルゴリズム的介入について検討する。
どちらの介入も、英国法の下では違法な差別のリスクをもたらすが、選択的摩擦はより公平で説明可能なAI支援による意思決定への、有望な道筋を提供する、と我々は主張する。
論文 参考訳(メタデータ) (2025-08-11T11:43:34Z) - Generative AI Carries Non-Democratic Biases and Stereotypes: Representation of Women, Black Individuals, Age Groups, and People with Disability in AI-Generated Images across Occupations [0.0]
このエッセイは、生成的AIがアウトプットにエクイティ保存グループを含んでいるか、あるいは除外しているかを強調することを目的としている。
この結果から、生成的AIは性別、人種、年齢、可視性障害について公平に包括的ではないことが明らかとなった。
論文 参考訳(メタデータ) (2024-09-20T19:47:31Z) - AI for All: Identifying AI incidents Related to Diversity and Inclusion [5.364403920214549]
本研究では,AIインシデントデータベースを手動で解析することで,AIシステム内のD&I問題を特定し,理解する。
分析されたAIインシデントのほぼ半数は、人種、性別、年齢差別の顕著な優位性を持つD&Iに関連している。
論文 参考訳(メタデータ) (2024-07-19T08:54:56Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Intelligent Decision Assistance Versus Automated Decision-Making:
Enhancing Knowledge Work Through Explainable Artificial Intelligence [0.0]
我々は,新たなDSSクラス,すなわち知能決定支援(IDA)を提案する。
IDAは、自動意思決定を通じて知識労働者に影響を与えることなく、知識労働者をサポートする。
具体的には、具体的なAIレコメンデーションを保ちながら、説明可能なAI(XAI)の技術を使用することを提案する。
論文 参考訳(メタデータ) (2021-09-28T15:57:21Z) - Bias and Discrimination in AI: a cross-disciplinary perspective [5.190307793476366]
我々は、AIにおけるバイアスと差別の解決策を見つけるには、堅牢な学際的コラボレーションが必要であることを示した。
我々は、技術的、法的、社会的、倫理的な側面を組み込んだ学際的な視点から、AIにおけるバイアスと差別に関する関連文献を調査した。
論文 参考訳(メタデータ) (2020-08-11T10:02:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。