論文の概要: Manifestations of Xenophobia in AI Systems
- arxiv url: http://arxiv.org/abs/2212.07877v2
- Date: Fri, 6 Oct 2023 16:59:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-13 15:27:14.556542
- Title: Manifestations of Xenophobia in AI Systems
- Title(参考訳): AIシステムにおけるXenophobiaの検討
- Authors: Nenad Tomasev, Jonathan Leader Maynard, Iason Gabriel
- Abstract要約: 我々は、AIソリューションの安全で倫理的な設計を促進することを目指している。
異種キセノフォビック・ハザードを最初に同定し,キセノフォビック・ハザードの影響を解析した。
我々は、ソーシャルメディアやレコメンデーションシステム、医療、移民、雇用、および大規模な事前訓練モデルにおけるバイアスに関する、AIとキセノフォビアの潜在的な相互作用についてレビューする。
- 参考スコア(独自算出の注目度): 3.4286054614285084
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Xenophobia is one of the key drivers of marginalisation, discrimination, and
conflict, yet many prominent machine learning (ML) fairness frameworks fail to
comprehensively measure or mitigate the resulting xenophobic harms. Here we aim
to bridge this conceptual gap and help facilitate safe and ethical design of
artificial intelligence (AI) solutions. We ground our analysis of the impact of
xenophobia by first identifying distinct types of xenophobic harms, and then
applying this framework across a number of prominent AI application domains,
reviewing the potential interplay between AI and xenophobia on social media and
recommendation systems, healthcare, immigration, employment, as well as biases
in large pre-trained models. These help inform our recommendations towards an
inclusive, xenophilic design of future AI systems.
- Abstract(参考訳): Xenophobiaは辺境化、差別、紛争の主要な要因の1つだが、多くの著名な機械学習(ML)フェアネスフレームワークは、結果として生じるキセノピーの害を包括的に測定または緩和することができない。
ここでは、この概念的ギャップを埋め、人工知能(AI)ソリューションの安全で倫理的な設計を促進することを目的とする。
キセノフォビアの影響について、まず異なる種類のキセノフォビア害を識別し、次にこのフレームワークをいくつかの著名なAIアプリケーションドメインに適用し、ソーシャルメディアやレコメンデーションシステム、医療、移民、雇用、そして大規模な事前訓練モデルにおけるバイアスに対するAIとキセノフォビアの潜在的な相互作用をレビューする。
これらは、将来のaiシステムの包括的でxen 親和的な設計に向けての推奨に役立ちます。
関連論文リスト
- Using AI Alignment Theory to understand the potential pitfalls of regulatory frameworks [55.2480439325792]
本稿では、欧州連合の人工知能法(EU AI法)を批判的に検討する。
人工知能における技術的アライメントの潜在的な落とし穴に焦点を当てたアライメント理論(AT)研究からの洞察を利用する。
これらの概念をEU AI Actに適用すると、潜在的な脆弱性と規制を改善するための領域が明らかになる。
論文 参考訳(メタデータ) (2024-10-10T17:38:38Z) - Frontier AI Ethics: Anticipating and Evaluating the Societal Impacts of Language Model Agents [0.0]
一部の者は、すでに広くデプロイされているAIシステムのよく知られた病理を複製したとして、ジェネレーティブAIシステムを批判している。
私はこれらの特定のシステムを区別する点に注意を払っています。
私は「言語モデルエージェント」の略奪的展望がもたらす潜在的社会的影響と規範的疑問について考察する
論文 参考訳(メタデータ) (2024-04-10T05:34:07Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - AI Deception: A Survey of Examples, Risks, and Potential Solutions [20.84424818447696]
本稿は、現在のAIシステムが人間を騙す方法を学んだことを論じる。
我々は虚偽を、真理以外の結果の追求において、虚偽の信念を体系的に誘導するものとして定義する。
論文 参考訳(メタデータ) (2023-08-28T17:59:35Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Speciesist bias in AI -- How AI applications perpetuate discrimination
and unfair outcomes against animals [0.0]
この論文は、"種多様性バイアス"を初めて記述し、いくつかの異なるAIシステムでそれを調査したものである。
これは、AIシステムが動物に影響を及ぼす暴力の増加または減少に影響を及ぼす可能性があることを強調している。
論文 参考訳(メタデータ) (2022-02-22T12:23:21Z) - AI and Blackness: Towards moving beyond bias and representation [0.8223798883838329]
AI倫理は人種に基づく表現と偏見という概念を超えてはならないと我々は主張する。
AIにおけるアンチブラックネスは、AIシステムの設計、開発、デプロイの基盤を提供する存在論的空間の検査をもっと必要とします。
論文 参考訳(メタデータ) (2021-11-05T18:24:54Z) - A User-Centred Framework for Explainable Artificial Intelligence in
Human-Robot Interaction [70.11080854486953]
本稿では,XAIのソーシャル・インタラクティブな側面に着目したユーザ中心型フレームワークを提案する。
このフレームワークは、エキスパートでないユーザのために考えられた対話型XAIソリューションのための構造を提供することを目的としている。
論文 参考訳(メタデータ) (2021-09-27T09:56:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。