論文の概要: No computation without representation: Avoiding data and algorithm
biases through diversity
- arxiv url: http://arxiv.org/abs/2002.11836v1
- Date: Wed, 26 Feb 2020 23:07:39 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-01 20:56:31.628661
- Title: No computation without representation: Avoiding data and algorithm
biases through diversity
- Title(参考訳): 表現なしの計算:多様性によるデータとアルゴリズムバイアスを避ける
- Authors: Caitlin Kuhlman, Latifa Jackson, Rumi Chunara
- Abstract要約: 学術的および専門的なコンピューティング分野における多様性の欠如と、データセットで発生するバイアスのタイプと幅の関連性を引き合いに出す。
これらの教訓を利用して、コンピューティングコミュニティが多様性を高めるための具体的なステップを提供するレコメンデーションを開発する。
- 参考スコア(独自算出の注目度): 11.12971845021808
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The emergence and growth of research on issues of ethics in AI, and in
particular algorithmic fairness, has roots in an essential observation that
structural inequalities in society are reflected in the data used to train
predictive models and in the design of objective functions. While research
aiming to mitigate these issues is inherently interdisciplinary, the design of
unbiased algorithms and fair socio-technical systems are key desired outcomes
which depend on practitioners from the fields of data science and computing.
However, these computing fields broadly also suffer from the same
under-representation issues that are found in the datasets we analyze. This
disconnect affects the design of both the desired outcomes and metrics by which
we measure success. If the ethical AI research community accepts this, we
tacitly endorse the status quo and contradict the goals of non-discrimination
and equity which work on algorithmic fairness, accountability, and transparency
seeks to address. Therefore, we advocate in this work for diversifying
computing as a core priority of the field and our efforts to achieve ethical AI
practices. We draw connections between the lack of diversity within academic
and professional computing fields and the type and breadth of the biases
encountered in datasets, machine learning models, problem formulations, and
interpretation of results. Examining the current fairness/ethics in AI
literature, we highlight cases where this lack of diverse perspectives has been
foundational to the inequity in treatment of underrepresented and protected
group data. We also look to other professional communities, such as in law and
health, where disparities have been reduced both in the educational diversity
of trainees and among professional practices. We use these lessons to develop
recommendations that provide concrete steps for the computing community to
increase diversity.
- Abstract(参考訳): AIにおける倫理問題、特にアルゴリズム的公正性の研究の出現と成長は、社会の構造的不平等が予測モデルや客観的関数の設計に使用されるデータに反映されるという本質的な観察に根ざしている。
これらの問題を緩和しようとする研究は本質的に学際的なものであるが、偏りのないアルゴリズムと公正な社会技術的システムの設計は、データサイエンスとコンピューティングの分野から実践者に依存する重要な望ましい結果である。
しかし、これらの計算分野は、分析したデータセットで見られるのと同じ非表現的な問題に広く悩まされている。
この切り離しは、私たちが成功を測る望ましい結果とメトリクスの両方の設計に影響を与える。
倫理的AI研究コミュニティがこれを受け入れるならば、我々は現状を積極的に支持し、アルゴリズムの公正性、説明責任、透明性を追求する非差別と株式の目標を矛盾させます。
したがって、この分野の中心的優先事項としてコンピューティングの多様化と倫理的AI実践の実現に向けた取り組みを提唱する。
学術と専門のコンピューティング分野における多様性の欠如と、データセット、機械学習モデル、問題定式化、結果の解釈で発生するバイアスのタイプと幅の関連性を引き出す。
AI文学における現在の公正さや倫理を考察し、この多様な視点の欠如が、表現不足や保護されていないグループデータの扱いにおける不平等に根ざした事例を強調します。
また、研修生の教育的多様性と専門的実践の両面で格差が減少している法律や健康などの他の専門的コミュニティについても検討する。
これらの教訓を利用して、コンピューティングコミュニティが多様性を高めるための具体的なステップを提供するレコメンデーションを開発する。
関連論文リスト
- FairAIED: Navigating Fairness, Bias, and Ethics in Educational AI Applications [2.612585751318055]
人工知能の教育への統合は変革の可能性を秘めており、適切な学習経験と創造的な教育的アプローチを提供する。
しかし、AIアルゴリズムの固有のバイアスは、特定の人口層に対する偏見を意図せずに永続させることによって、この改善を妨げている。
この調査は、教育的文脈におけるアルゴリズムフェアネスの発達するトピックを深く掘り下げている。
データ関連、アルゴリズム、ユーザーインタラクションなど、AI教育における公正性の達成を根本的に損なう共通のバイアスの形式を特定します。
論文 参考訳(メタデータ) (2024-07-26T13:59:20Z) - Quantifying the Cross-sectoral Intersecting Discrepancies within Multiple Groups Using Latent Class Analysis Towards Fairness [6.683051393349788]
本研究は,クロスセクタ間差分を定量化するための革新的アプローチを導入する。
プロプライエタリなデータセットとパブリックなデータセットの両方を使用して、私たちのアプローチを検証する。
我々の発見は、少数民族間の大きな相違が明らかとなり、現実世界のAIアプリケーションにおいて標的となる介入の必要性が浮かび上がっている。
論文 参考訳(メタデータ) (2024-05-24T08:10:31Z) - Reconciling Predictive and Statistical Parity: A Causal Approach [68.59381759875734]
本稿では,予測パリティに付随する公平度対策のための因果分解式を提案する。
統計的および予測パリティの概念は、実際には互いに排他的ではなく、相補的であり、公正の概念のスペクトルにまたがっていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:23:22Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - A toolkit of dilemmas: Beyond debiasing and fairness formulas for
responsible AI/ML [0.0]
公正で倫理的なAIへのアプローチは、最近、批判データ研究の新興分野の精査の下に落ちている。
本稿では,責任あるアルゴリズム/データ駆動システムを取り巻くジレンマに対して,位置的推論と創造的関与を提唱する。
論文 参考訳(メタデータ) (2023-03-03T13:58:24Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - A Field Guide to Federated Optimization [161.3779046812383]
フェデレートされた学習と分析は、分散化されたデータからモデル(あるいは統計)を協調的に学習するための分散アプローチである。
本稿では、フェデレート最適化アルゴリズムの定式化、設計、評価、分析に関する勧告とガイドラインを提供する。
論文 参考訳(メタデータ) (2021-07-14T18:09:08Z) - Fair Representation Learning for Heterogeneous Information Networks [35.80367469624887]
公平なHIN表現学習のための包括的非バイアス化手法を提案する。
これらのアルゴリズムの挙動,特にフェアネスと予測精度のトレードオフをバランスさせる能力について検討した。
キャリアカウンセリングの自動化アプリケーションにおいて,提案手法の性能を評価する。
論文 参考訳(メタデータ) (2021-04-18T08:28:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。