論文の概要: Bias, diversity, and challenges to fairness in classification and
automated text analysis. From libraries to AI and back
- arxiv url: http://arxiv.org/abs/2303.07207v1
- Date: Tue, 7 Mar 2023 20:54:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-19 11:48:20.023760
- Title: Bias, diversity, and challenges to fairness in classification and
automated text analysis. From libraries to AI and back
- Title(参考訳): 分類と自動テキスト分析における公平性へのバイアス、多様性、課題。
図書館からAIへ、そしてバックへ
- Authors: Bettina Berendt, \"Ozg\"ur Karadeniz, Sercan K{\i}yak, Stefan Mertens,
Leen d'Haenens
- Abstract要約: 分類と自動テキスト分析におけるAI利用における偏見と不公平性に関するリスクについて検討する。
我々は「多様性」の概念に関連して「不平等」の概念を詳しく見ていく。
- 参考スコア(独自算出の注目度): 3.9198548406564604
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Libraries are increasingly relying on computational methods, including
methods from Artificial Intelligence (AI). This increasing usage raises
concerns about the risks of AI that are currently broadly discussed in
scientific literature, the media and law-making. In this article we investigate
the risks surrounding bias and unfairness in AI usage in classification and
automated text analysis within the context of library applications. We describe
examples that show how the library community has been aware of such risks for a
long time, and how it has developed and deployed countermeasures. We take a
closer look at the notion of '(un)fairness' in relation to the notion of
'diversity', and we investigate a formalisation of diversity that models both
inclusion and distribution. We argue that many of the unfairness problems of
automated content analysis can also be regarded through the lens of diversity
and the countermeasures taken to enhance diversity.
- Abstract(参考訳): ライブラリは、人工知能(AI)の手法を含む計算方法にますます依存している。
この利用の増加は、現在科学文献、メディア、法律作成で広く議論されているAIのリスクに対する懸念を高める。
本稿では,図書館アプリケーションにおける分類と自動テキスト解析におけるAI利用の偏りと不公平性に関するリスクについて検討する。
本稿では,図書館コミュニティが長年にわたってそのようなリスクに気付いてきたこと,そして,その開発と対策の展開について述べる。
我々は,「多様性」の概念に関連して「(un)fairness」の概念を詳細に検討し,包含と分布の両方をモデル化した多様性の形式化について検討する。
自動コンテンツ分析における不公平性問題の多くは、多様性のレンズと多様性を高めるための対策によっても考慮できると論じる。
関連論文リスト
- Quantifying the Cross-sectoral Intersecting Discrepancies within Multiple Groups Using Latent Class Analysis Towards Fairness [6.683051393349788]
本研究は,クロスセクタ間差分を定量化するための革新的アプローチを導入する。
プロプライエタリなデータセットとパブリックなデータセットの両方を使用して、私たちのアプローチを検証する。
我々の発見は、少数民族間の大きな相違が明らかとなり、現実世界のAIアプリケーションにおいて標的となる介入の必要性が浮かび上がっている。
論文 参考訳(メタデータ) (2024-05-24T08:10:31Z) - Bias and Fairness in Large Language Models: A Survey [73.87651986156006]
本稿では,大規模言語モデル(LLM)のバイアス評価と緩和手法に関する総合的な調査を行う。
まず、自然言語処理における社会的偏見と公平性の概念を統合し、形式化し、拡張する。
次に,3つの直感的な2つのバイアス評価法と1つの緩和法を提案し,文献を統一する。
論文 参考訳(メタデータ) (2023-09-02T00:32:55Z) - Fairness in AI and Its Long-Term Implications on Society [68.8204255655161]
AIフェアネスを詳しく見て、AIフェアネスの欠如が、時間の経過とともにバイアスの深化につながるかを分析します。
偏りのあるモデルが特定のグループに対してよりネガティブな現実的な結果をもたらすかについて議論する。
問題が続くと、他のリスクとの相互作用によって強化され、社会不安という形で社会に深刻な影響を及ぼす可能性がある。
論文 参考訳(メタデータ) (2023-04-16T11:22:59Z) - Fairness And Bias in Artificial Intelligence: A Brief Survey of Sources,
Impacts, And Mitigation Strategies [11.323961700172175]
この調査論文は、AIの公平性とバイアスに関する簡潔で包括的な概要を提供する。
我々は、データ、アルゴリズム、人間の決定バイアスなどのバイアス源をレビューする。
偏りのあるAIシステムの社会的影響を評価し,不平等の持続性と有害なステレオタイプの強化に着目した。
論文 参考訳(メタデータ) (2023-04-16T03:23:55Z) - A toolkit of dilemmas: Beyond debiasing and fairness formulas for
responsible AI/ML [0.0]
公正で倫理的なAIへのアプローチは、最近、批判データ研究の新興分野の精査の下に落ちている。
本稿では,責任あるアルゴリズム/データ駆動システムを取り巻くジレンマに対して,位置的推論と創造的関与を提唱する。
論文 参考訳(メタデータ) (2023-03-03T13:58:24Z) - Human-Centric Multimodal Machine Learning: Recent Advances and Testbed
on AI-based Recruitment [66.91538273487379]
人間中心のアプローチでAIアプリケーションを開発する必要性には、ある程度のコンセンサスがある。
i)ユーティリティと社会的善、(ii)プライバシとデータ所有、(iii)透明性と説明責任、(iv)AIによる意思決定プロセスの公正性。
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
論文 参考訳(メタデータ) (2023-02-13T16:44:44Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - AI & Racial Equity: Understanding Sentiment Analysis Artificial
Intelligence, Data Security, and Systemic Theory in Criminal Justice Systems [0.0]
人種的体系的不正を悪化または減少させる人工知能の様々な形態が研究されている。
これは、歴史的体系的パターン、暗黙の偏見、既存のアルゴリズム的リスク、そして自然言語処理に基づくAI(リスク評価ツールなど)が人種的に異なる結果をもたらすという法的意味を通じて主張されている。
人種的に不正な結果や慣行から逸脱するためには、内部の機関や企業がアルゴリズム、プライバシーおよびセキュリティリスクをどのように活用するかを規制し、規制するために、より訴訟的な政策が必要であると結論付けている。
論文 参考訳(メタデータ) (2022-01-03T19:42:08Z) - FairCVtest Demo: Understanding Bias in Multimodal Learning with a
Testbed in Fair Automatic Recruitment [79.23531577235887]
このデモは、非構造化データから機密情報を抽出する採用ツールの背後にある人工知能(AI)の能力を示しています。
また、このデモには差別認識学習のための新しいアルゴリズムが含まれており、マルチモーダルAIフレームワークの機密情報を排除している。
論文 参考訳(メタデータ) (2020-09-12T17:45:09Z) - Bias in Multimodal AI: Testbed for Fair Automatic Recruitment [73.85525896663371]
異種情報ソースに基づく現在のマルチモーダルアルゴリズムは、データ中の機密要素や内部バイアスによってどのように影響を受けるかを検討する。
我々は、性別や人種の偏りを意識的に評価したマルチモーダルな合成プロファイルを用いて、自動求人アルゴリズムを訓練する。
我々の方法論と結果は、一般により公平なAIベースのツール、特により公平な自動採用システムを生成する方法を示している。
論文 参考訳(メタデータ) (2020-04-15T15:58:05Z) - No computation without representation: Avoiding data and algorithm
biases through diversity [11.12971845021808]
学術的および専門的なコンピューティング分野における多様性の欠如と、データセットで発生するバイアスのタイプと幅の関連性を引き合いに出す。
これらの教訓を利用して、コンピューティングコミュニティが多様性を高めるための具体的なステップを提供するレコメンデーションを開発する。
論文 参考訳(メタデータ) (2020-02-26T23:07:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。