論文の概要: A toolkit of dilemmas: Beyond debiasing and fairness formulas for
responsible AI/ML
- arxiv url: http://arxiv.org/abs/2303.01930v1
- Date: Fri, 3 Mar 2023 13:58:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-06 14:56:29.154001
- Title: A toolkit of dilemmas: Beyond debiasing and fairness formulas for
responsible AI/ML
- Title(参考訳): ジレンマのツールキット:AI/MLの偏見と公平性の公式を超えて
- Authors: Andr\'es Dom\'inguez Hern\'andez and Vassilis Galanos
- Abstract要約: 公正で倫理的なAIへのアプローチは、最近、批判データ研究の新興分野の精査の下に落ちている。
本稿では,責任あるアルゴリズム/データ駆動システムを取り巻くジレンマに対して,位置的推論と創造的関与を提唱する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Approaches to fair and ethical AI have recently fell under the scrutiny of
the emerging, chiefly qualitative, field of critical data studies, placing
emphasis on the lack of sensitivity to context and complex social phenomena of
such interventions. We employ some of these lessons to introduce a tripartite
decision-making toolkit, informed by dilemmas encountered in the pursuit of
responsible AI/ML. These are: (a) the opportunity dilemma between the
availability of data shaping problem statements vs problem statements shaping
data; (b) the trade-off between scalability and contextualizability (too much
data versus too specific data); and (c) the epistemic positioning between the
pragmatic technical objectivism and the reflexive relativism in acknowledging
the social. This paper advocates for a situated reasoning and creative
engagement with the dilemmas surrounding responsible algorithmic/data-driven
systems, and going beyond the formulaic bias elimination and ethics
operationalization narratives found in the fair-AI literature.
- Abstract(参考訳): 公正で倫理的なaiへのアプローチは、最近、重要データ研究の新興、主に質的分野の精査の対象となり、このような介入の文脈に対する感受性の欠如と複雑な社会現象に重点が置かれている。
我々はこれらの教訓のいくつかを用いて、責任あるAI/MLの追求に遭遇したジレンマに知らせる三部決定ツールキットを導入する。
これらは
a) データ形成問題文とデータ形成問題文との間にある機会ジレンマ
(b)スケーラビリティとコンテキスト変更性(過剰なデータと過剰なデータ)のトレードオフ、そして
(c)実用的技術的客観主義と社会認識における反射的相対主義との認識論的位置づけ
本稿では,アルゴリズム・データ駆動システムの責任を負うジレンマとの位置的推論と創造的関与を提唱し,公正AI文献に見られる定式的偏見の排除と倫理的運用に関する物語を超越した。
関連論文リスト
- Causal Responsibility Attribution for Human-AI Collaboration [62.474732677086855]
本稿では,人間のAIシステムにおける責任を体系的に評価するために,構造因果モデル(SCM)を用いた因果的枠組みを提案する。
2つのケーススタディは、多様な人間とAIのコラボレーションシナリオにおけるフレームワークの適応性を示している。
論文 参考訳(メタデータ) (2024-11-05T17:17:45Z) - Advancing Fairness in Natural Language Processing: From Traditional Methods to Explainability [0.9065034043031668]
この論文は、NLPシステムにおける株式と透明性の必要性に対処している。
高リスクNLPアプリケーションにおけるバイアスを軽減する革新的なアルゴリズムを導入している。
また、トランスフォーマーモデルの概念を特定し、ランク付けするモデルに依存しない説明可能性法を提案する。
論文 参考訳(メタデータ) (2024-10-16T12:38:58Z) - FairAIED: Navigating Fairness, Bias, and Ethics in Educational AI Applications [2.612585751318055]
人工知能の教育への統合は変革の可能性を秘めており、適切な学習経験と創造的な教育的アプローチを提供する。
しかし、AIアルゴリズムの固有のバイアスは、特定の人口層に対する偏見を意図せずに永続させることによって、この改善を妨げている。
この調査は、教育的文脈におけるアルゴリズムフェアネスの発達するトピックを深く掘り下げている。
データ関連、アルゴリズム、ユーザーインタラクションなど、AI教育における公正性の達成を根本的に損なう共通のバイアスの形式を特定します。
論文 参考訳(メタデータ) (2024-07-26T13:59:20Z) - Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - On the meaning of uncertainty for ethical AI: philosophy and practice [10.591284030838146]
これは、数学的推論に倫理的考察をもたらす重要な方法であると主張する。
我々は、2021年12月のOmicron型COVID-19の拡散について、英国政府に助言するために使用される競合モデルの文脈内でこれらのアイデアを実証する。
論文 参考訳(メタデータ) (2023-09-11T15:13:36Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Competency Problems: On Finding and Removing Artifacts in Language Data [50.09608320112584]
複雑な言語理解タスクでは、すべての単純な特徴相関が突発的であると論じる。
人間バイアスを考慮したコンピテンシー問題に対するデータ作成の難しさを理論的に分析します。
論文 参考訳(メタデータ) (2021-04-17T21:34:10Z) - No computation without representation: Avoiding data and algorithm
biases through diversity [11.12971845021808]
学術的および専門的なコンピューティング分野における多様性の欠如と、データセットで発生するバイアスのタイプと幅の関連性を引き合いに出す。
これらの教訓を利用して、コンピューティングコミュニティが多様性を高めるための具体的なステップを提供するレコメンデーションを開発する。
論文 参考訳(メタデータ) (2020-02-26T23:07:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。