論文の概要: FATE in AI: Towards Algorithmic Inclusivity and Accessibility
- arxiv url: http://arxiv.org/abs/2301.01590v2
- Date: Mon, 13 Nov 2023 01:54:16 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-14 22:43:43.758231
- Title: FATE in AI: Towards Algorithmic Inclusivity and Accessibility
- Title(参考訳): aiの運命:アルゴリズムによる排他性とアクセシビリティを目指して
- Authors: Isa Inuwa-Dutse
- Abstract要約: AIにおけるアルゴリズム上の格差、公平性、説明責任、透明性、倫理(FATE)が実装されている。
本研究では、AIによって守られている世界南部地域のFATE関連デシダータ、特に透明性と倫理について検討する。
インクリシティを促進するために、コミュニティ主導の戦略が提案され、責任あるAI設計のための代表データを収集し、キュレートする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial Intelligence (AI) is at the forefront of modern technology, and
its effects are felt in many areas of society. To prevent algorithmic
disparities, fairness, accountability, transparency, and ethics (FATE) in AI
are being implemented. However, the current discourse on these issues is
largely dominated by more economically developed countries (MEDC), leaving out
local knowledge, cultural pluralism, and global fairness. This study aims to
address this gap by examining FATE-related desiderata, particularly
transparency and ethics, in areas of the global South that are underserved by
AI. A user study (n=43) and a participatory session (n=30) were conducted to
achieve this goal. The results showed that AI models can encode bias and
amplify stereotypes. To promote inclusivity, a community-led strategy is
proposed to collect and curate representative data for responsible AI design.
This will enable the affected community or individuals to monitor the
increasing use of AI-powered systems. Additionally, recommendations based on
public input are provided to ensure that AI adheres to social values and
context-specific FATE needs.
- Abstract(参考訳): 人工知能(ai)は現代技術の最前線にあり、その影響は社会の多くの領域で感じられている。
AIにおけるアルゴリズム上の格差、公平性、説明責任、透明性、倫理(FATE)が実装されている。
しかし、これらの問題についての現在の議論は、地域知識、文化多元主義、グローバルフェアネスを排除し、経済発展途上国(MEDC)が中心となっている。
本研究は,aiが不足している南半球の地域において,運命に関連したデシデラタ,特に透明性と倫理について検討することで,このギャップに対処することを目的としている。
この目的を達成するためにユーザ調査(n=43)と参加セッション(n=30)を実施した。
その結果、AIモデルはバイアスを符号化し、ステレオタイプを増幅できることがわかった。
独占性を促進するために、責任あるai設計のための代表データを収集し、キュレーションするためのコミュニティ主導の戦略が提案されている。
これにより、影響を受けるコミュニティや個人がAIシステムの利用の増加を監視できるようになる。
さらに、AIが社会的価値とコンテキスト固有のFATEニーズに準拠することを保証するために、公開入力に基づくレコメンデーションが提供される。
関連論文リスト
- Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Exploiting the Margin: How Capitalism Fuels AI at the Expense of Minoritized Groups [0.0]
本稿では、資本主義、人種的不正、人工知能(AI)の関係について考察する。
それは、AIが時代遅れの搾取のための現代的な乗り物として機能する、と論じている。
本論文は、社会正義と株式を技術デザインと政策の核心に組み込むアプローチを推進している。
論文 参考訳(メタデータ) (2024-03-10T22:40:07Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Trust, Accountability, and Autonomy in Knowledge Graph-based AI for
Self-determination [1.4305544869388402]
知識グラフ(KG)は、インテリジェントな意思決定を支えるための基盤として登場した。
KGと神経学習の統合は、現在活発な研究のトピックである。
本稿では,KGベースのAIによる自己決定を支援するための基礎的なトピックと研究の柱を概念化する。
論文 参考訳(メタデータ) (2023-10-30T12:51:52Z) - Towards FATE in AI for Social Media and Healthcare: A Systematic Review [0.0]
この調査は、AIの文脈における公正性、説明責任、透明性、倫理(FATE)の概念に焦点を当てている。
統計的および交差点的公正性は,ソーシャルメディアプラットフォーム上での医療の公平性を支持することが判明した。
シミュレーション、データ分析、自動システムといったソリューションは広く使われているが、その効果は様々である。
論文 参考訳(メタデータ) (2023-06-05T17:25:42Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Aligning Artificial Intelligence with Humans through Public Policy [0.0]
このエッセイは、下流のタスクに活用可能なポリシーデータの構造を学ぶAIの研究の概要を概説する。
これはAIとポリシーの"理解"フェーズを表していると私たちは考えていますが、AIを整合させるために人的価値の重要な源としてポリシーを活用するには、"理解"ポリシーが必要です。
論文 参考訳(メタデータ) (2022-06-25T21:31:14Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Empowering Local Communities Using Artificial Intelligence [70.17085406202368]
人中心の観点から、AIが社会に与える影響を探求する上で重要なトピックとなっている。
市民科学におけるこれまでの研究は、AIを使って研究に大衆を巻き込む方法を特定してきた。
本稿では,コミュニティ市民科学にAIを適用する上での課題について論じる。
論文 参考訳(メタデータ) (2021-10-05T12:51:11Z) - The Role of Social Movements, Coalitions, and Workers in Resisting
Harmful Artificial Intelligence and Contributing to the Development of
Responsible AI [0.0]
あらゆる分野の連合は、AIの恥ずべき適用に抵抗するために世界中で活動している。
AIアルゴリズムにはバイアスがあり、不正で、乱雑な仮定が埋め込まれています。
AIの最大の貢献の1つは、人類の知恵が地球上でいかに重要かを理解することだ。
論文 参考訳(メタデータ) (2021-07-11T18:51:29Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。