論文の概要: The Forgotten Margins of AI Ethics
- arxiv url: http://arxiv.org/abs/2205.04221v1
- Date: Mon, 9 May 2022 12:16:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 16:46:28.270380
- Title: The Forgotten Margins of AI Ethics
- Title(参考訳): AI倫理の忘れ去られたマージン
- Authors: Abeba Birhane, Elayne Ruane, Thomas Laurent, Matthew S. Brown,
Johnathan Flowers, Anthony Ventresque, Christopher L. Dancy
- Abstract要約: FAccTとAIESという2つの主要なカンファレンスにおいて、過去4年間に発表されたピアレビュー論文を読み、注釈を付けました。
FAccTとAIESの論文の大半の目標はしばしば賞賛できるものだったが、従来の疎外化グループに対するAIのネガティブな影響に対する考慮は浅いままであった。
- 参考スコア(独自算出の注目度): 4.150076021042422
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: How has recent AI Ethics literature addressed topics such as fairness and
justice in the context of continued social and structural power asymmetries? We
trace both the historical roots and current landmark work that have been
shaping the field and categorize these works under three broad umbrellas: (i)
those grounded in Western canonical philosophy, (ii) mathematical and
statistical methods, and (iii) those emerging from critical
data/algorithm/information studies. We also survey the field and explore
emerging trends by examining the rapidly growing body of literature that falls
under the broad umbrella of AI Ethics. To that end, we read and annotated
peer-reviewed papers published over the past four years in two premier
conferences: FAccT and AIES. We organize the literature based on an annotation
scheme we developed according to three main dimensions: whether the paper deals
with concrete applications, use-cases, and/or people's lived experience; to
what extent it addresses harmed, threatened, or otherwise marginalized groups;
and if so, whether it explicitly names such groups. We note that although the
goals of the majority of FAccT and AIES papers were often commendable, their
consideration of the negative impacts of AI on traditionally marginalized
groups remained shallow. Taken together, our conceptual analysis and the data
from annotated papers indicate that the field would benefit from an increased
focus on ethical analysis grounded in concrete use-cases, people's experiences,
and applications as well as from approaches that are sensitive to structural
and historical power asymmetries.
- Abstract(参考訳): 最近のAI倫理学の文献は、社会的・構造的な非対称性の文脈における公正さや正義といったトピックにどのように対処したか?
我々は、歴史的ルーツと現在のランドマークの作品の両方を追跡し、これらの作品を3つの広い傘の下に分類する。
(i)西洋標準哲学に根ざしたもの
(ii)数学的・統計的方法、及び
(iii)臨界データ・アルゴリズム・情報研究から生まれるもの
また、AI倫理の幅広い領域に該当する急速に成長する文学の身体を調べることで、この分野を調査し、新たなトレンドを探る。
そのために、過去4年間に発行されたピアレビュー論文をFAccTとAIESという2つのプレミアカンファレンスで読み、注釈付けしました。
論文は,具体的応用,利用事例,生活体験を扱っているか,有害,脅威,その他の辺縁化群にどの程度対処しているか,あるいはそのグループを明示的に命名するか,という3つの主観的側面から開発したアノテーション・スキームに基づいて文献を整理した。
FAccTとAIESの論文の大半の目標はしばしば賞賛できるものだったが、従来の疎外化グループに対するAIのネガティブな影響に対する考慮は浅いままであった。
概念分析と注釈付き論文のデータから, 具体的な利用事例, 人々の経験, 応用に根ざした倫理分析への注目が高まり, 構造的・歴史的権力の非対称性に敏感なアプローチの恩恵を受けることが示唆された。
関連論文リスト
- A Literature Review of Literature Reviews in Pattern Analysis and Machine Intelligence [58.6354685593418]
本稿では, レビューを評価するために, 記事レベル, フィールド正規化, 大規模言語モデルを用いた書誌指標を提案する。
新たに登場したAI生成の文献レビューも評価されている。
この研究は、文学レビューの現在の課題についての洞察を与え、彼らの開発に向けた今後の方向性を思い起こさせる。
論文 参考訳(メタデータ) (2024-02-20T11:28:50Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Exploring the Power of Topic Modeling Techniques in Analyzing Customer
Reviews: A Comparative Analysis [0.0]
大量のテキストデータをオンラインで分析するために、機械学習と自然言語処理アルゴリズムがデプロイされている。
本研究では,顧客レビューに特化して用いられる5つのトピックモデリング手法について検討・比較する。
以上の結果から,BERTopicはより意味のあるトピックを抽出し,良好な結果を得ることができた。
論文 参考訳(メタデータ) (2023-08-19T08:18:04Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - Factoring the Matrix of Domination: A Critical Review and Reimagination
of Intersectionality in AI Fairness [55.037030060643126]
間欠性は、社会的不平等の持続性を調べるための重要な枠組みである。
我々は、公平性を効果的に運用するために、交差性を分析的枠組みとして採用することが重要であると論じる。
論文 参考訳(メタデータ) (2023-03-16T21:02:09Z) - Bias, diversity, and challenges to fairness in classification and
automated text analysis. From libraries to AI and back [3.9198548406564604]
分類と自動テキスト分析におけるAI利用における偏見と不公平性に関するリスクについて検討する。
我々は「多様性」の概念に関連して「不平等」の概念を詳しく見ていく。
論文 参考訳(メタデータ) (2023-03-07T20:54:49Z) - The Values Encoded in Machine Learning Research [6.11644847221881]
初回会議、ICML、NeurIPSで発表された100の高度に引用された機械学習論文を分析した。
機械学習の研究で上げられた67の値を特定します。
高度に引用された論文とハイテク企業、エリート大学の間には、ますます密接な関係がある。
論文 参考訳(メタデータ) (2021-06-29T17:24:14Z) - Author Clustering and Topic Estimation for Short Texts [69.54017251622211]
同じ文書中の単語間の強い依存をモデル化することにより、遅延ディリクレ割当を拡張できる新しいモデルを提案する。
同時にユーザをクラスタ化し、ホック後のクラスタ推定の必要性を排除しています。
我々の手法は、短文で生じる問題に対する従来のアプローチよりも、-または----------- で機能する。
論文 参考訳(メタデータ) (2021-06-15T20:55:55Z) - What's New? Summarizing Contributions in Scientific Literature [85.95906677964815]
本稿では,論文のコントリビューションと作業状況について,個別の要約を生成するために,論文要約のアンタングル化という新たなタスクを導入する。
本稿では,学術論文のS2ORCコーパスを拡張し,コントリビューション・コントリビューション・コントリビューション・レファレンス・ラベルを付加する。
本稿では, 生成した出力の関連性, 新規性, 絡み合いを報告する総合的自動評価プロトコルを提案する。
論文 参考訳(メタデータ) (2020-11-06T02:23:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。