論文の概要: A Seven-Layer Model for Standardising AI Fairness Assessment
- arxiv url: http://arxiv.org/abs/2212.11207v1
- Date: Wed, 21 Dec 2022 17:28:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 14:18:13.665573
- Title: A Seven-Layer Model for Standardising AI Fairness Assessment
- Title(参考訳): AIフェアネスアセスメントの標準化のための7層モデル
- Authors: Avinash Agarwal, Harsh Agarwal
- Abstract要約: AIシステムは、開始から使用まで、ライフサイクルのあらゆる段階でバイアスを起こしやすいことを詳しく説明します。
オープンシステム相互接続(OSI)モデルにインスパイアされた,AIフェアネスハンドリングの標準化を目的とした,新しい7層モデルを提案する。
- 参考スコア(独自算出の注目度): 0.5076419064097732
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Problem statement: Standardisation of AI fairness rules and benchmarks is
challenging because AI fairness and other ethical requirements depend on
multiple factors such as context, use case, type of the AI system, and so on.
In this paper, we elaborate that the AI system is prone to biases at every
stage of its lifecycle, from inception to its usage, and that all stages
require due attention for mitigating AI bias. We need a standardised approach
to handle AI fairness at every stage. Gap analysis: While AI fairness is a hot
research topic, a holistic strategy for AI fairness is generally missing. Most
researchers focus only on a few facets of AI model-building. Peer review shows
excessive focus on biases in the datasets, fairness metrics, and algorithmic
bias. In the process, other aspects affecting AI fairness get ignored. The
solution proposed: We propose a comprehensive approach in the form of a novel
seven-layer model, inspired by the Open System Interconnection (OSI) model, to
standardise AI fairness handling. Despite the differences in the various
aspects, most AI systems have similar model-building stages. The proposed model
splits the AI system lifecycle into seven abstraction layers, each
corresponding to a well-defined AI model-building or usage stage. We also
provide checklists for each layer and deliberate on potential sources of bias
in each layer and their mitigation methodologies. This work will facilitate
layer-wise standardisation of AI fairness rules and benchmarking parameters.
- Abstract(参考訳): 問題文: AIフェアネスルールとベンチマークの標準化は、AIフェアネスやその他の倫理的要件がコンテキスト、ユースケース、AIシステムのタイプなど、複数の要因に依存するため、難しい。
本稿では,AIシステムのライフサイクルのすべての段階において,開始から使用までのバイアスが発生しやすいこと,AIバイアスの緩和に十分な注意が必要であることを詳しく述べる。
あらゆる段階でAIフェアネスを扱うための標準化されたアプローチが必要です。
ギャップ分析: AIフェアネスはホットな研究トピックであるが、AIフェアネスの全体戦略は一般的に欠落している。
ほとんどの研究者は、AIモデル構築のいくつかの側面のみに焦点を当てている。
peer reviewでは、データセットのバイアス、公平度メトリクス、アルゴリズムバイアスに過度に注目している。
その過程で、AIの公平性に影響を与える他の側面は無視される。
我々は、AIフェアネスハンドリングを標準化するために、オープンシステムインターコネクション(OSI)モデルにインスパイアされた、新しい7層モデルという形で包括的なアプローチを提案する。
さまざまな側面の違いにもかかわらず、ほとんどのAIシステムは、同様のモデル構築段階を持っている。
提案されたモデルは、AIシステムのライフサイクルを7つの抽象化レイヤに分割する。
また,各レイヤに対するチェックリストを提供し,各レイヤの潜在的なバイアス源とその緩和方法について検討する。
この作業は、AIフェアネスルールとベンチマークパラメータの階層的標準化を促進する。
関連論文リスト
- Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - Why AI Is WEIRD and Should Not Be This Way: Towards AI For Everyone, With Everyone, By Everyone [47.19142377073831]
本稿では,開発の各段階で包括的なAIシステムを構築するためのビジョンを提案する。
我々は、現在のAIパイプラインとそのWEIRD表現における重要な制限に対処する。
論文 参考訳(メタデータ) (2024-10-09T10:44:26Z) - The Switch, the Ladder, and the Matrix: Models for Classifying AI Systems [0.0]
AI倫理の原則と実践の間にはまだギャップがある。
AI倫理を運用しようとする組織が直面する大きな障害のひとつは、明確に定義された材料スコープの欠如である。
論文 参考訳(メタデータ) (2024-07-07T12:16:01Z) - Mapping the Potential of Explainable AI for Fairness Along the AI Lifecycle [1.4183971140167246]
説明可能なAI(XAI)は、AIシステムの公正性を高めるための有望な方法だと考えています。
8つのフェアネスデシダラタを蒸留し、それらをAIライフサイクルに沿ってマッピングし、XAIがそれぞれにどのように対処できるかについて議論する。
論文 参考訳(メタデータ) (2024-04-29T14:34:43Z) - The Pursuit of Fairness in Artificial Intelligence Models: A Survey [2.124791625488617]
この調査は、研究者がAIシステムの公正性を促進する方法の相乗効果を提供する。
AIモデルのバイアスを軽減するために研究者が採用したアプローチとテクニックについて、徹底的な研究がなされている。
また、偏見付きモデルがユーザエクスペリエンスに与える影響や、そのようなモデルの開発とデプロイにおいて考慮すべき倫理的考慮についても調べます。
論文 参考訳(メタデータ) (2024-03-26T02:33:36Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Fairness And Bias in Artificial Intelligence: A Brief Survey of Sources,
Impacts, And Mitigation Strategies [11.323961700172175]
この調査論文は、AIの公平性とバイアスに関する簡潔で包括的な概要を提供する。
我々は、データ、アルゴリズム、人間の決定バイアスなどのバイアス源をレビューする。
偏りのあるAIシステムの社会的影響を評価し,不平等の持続性と有害なステレオタイプの強化に着目した。
論文 参考訳(メタデータ) (2023-04-16T03:23:55Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Responsible AI Pattern Catalogue: A Collection of Best Practices for AI
Governance and Engineering [20.644494592443245]
MLR(Multivocal Literature Review)の結果に基づく応答性AIパターンカタログを提案する。
原則やアルゴリズムのレベルにとどまらず、私たちは、AIシステムのステークホルダーが実際に行なえるパターンに注目して、開発済みのAIシステムがガバナンスとエンジニアリングライフサイクル全体を通して責任を負うようにします。
論文 参考訳(メタデータ) (2022-09-12T00:09:08Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。