論文の概要: Moving beyond harm. A critical review of how NLP research approaches discrimination
- arxiv url: http://arxiv.org/abs/2508.04504v1
- Date: Wed, 06 Aug 2025 14:50:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-07 20:09:22.773135
- Title: Moving beyond harm. A critical review of how NLP research approaches discrimination
- Title(参考訳): NLP研究がいかに差別にアプローチするかの批判的レビュー
- Authors: Katrin Schulz, Marjolein Lanzing, Giulia Martinez Brenner,
- Abstract要約: NLPシステムの識別行動に関するケーススタディを報告する。
この分野は今でも、アルゴリズムによる差別の技術的修正に力を入れている。
後者の問題に対処することは前者に役立つと我々は主張する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: How to avoid discrimination in the context of NLP technology is one of the major challenges in the field. We propose that a different and more substantiated framing of the problem could help to find more productive approaches. In the first part of the paper we report on a case study: a qualitative review on papers published in the ACL anthologies 2022 on discriminatory behavior of NLP systems. We find that the field (i) still has a strong focus on a technological fix of algorithmic discrimination, and (ii) is struggling with a firm grounding of their ethical or normative vocabulary. Furthermore, this vocabulary is very limited, focusing mostly on the terms "harm" and "bias". In the second part of the paper we argue that addressing the latter problems might help with the former. The understanding of algorithmic discrimination as a technological problem is reflected in and reproduced by the vocabulary in use. The notions of "harm" and "bias" implicate a narrow framing of the issue of discrimination as one of the system-user interface. We argue that instead of "harm" the debate should make "injustice" the key notion. This would force us to understand the problem of algorithmic discrimination as a systemic problem. Thereby, it would broaden our perspective on the complex interactions that make NLP technology participate in discrimination. With that gain in perspective we can consider new angles for solutions.
- Abstract(参考訳): NLP技術の文脈における差別の回避は、この分野における大きな課題の1つである。
我々は、この問題の異なる、より確立されたフレーミングが、より生産的なアプローチを見つけるのに役立つと提案する。
論文の第1部では,ALCアンソロジー2022に発表されたNLPシステムの識別行動に関する論文の質的レビューを報告する。
私たちはフィールドを見つけます
(i)まだアルゴリズム差別の技術的修正に重点を置いており、
(二)倫理的・規範的な語彙の堅固な根拠に苦しむ。
さらに、この語彙は非常に限られており、主に「ハーム」と「バイアス」という用語に焦点を当てている。
論文の第2部では、後者の問題に対処することは前者に役立つと論じている。
技術的問題としてのアルゴリズム識別の理解は、使用中の語彙によって反映され、再現される。
ハーム」と「バイアス」という概念は、システムユーザインタフェースの1つとして差別の問題の狭間を暗示している。
我々は、議論が「ハーム」ではなく、重要な概念を「不正」にすべきだと論じている。
これにより、アルゴリズムによる差別の問題を体系的な問題として理解せざるを得なくなる。
これにより、NLP技術が差別に参画する複雑な相互作用について、私たちの視点を広げることができます。
この観点では、解に対する新しい角度を考えることができる。
関連論文リスト
- Auditing for Racial Discrimination in the Delivery of Education Ads [50.37313459134418]
本稿では,教育機会のための広告配信において,人種的偏見を評価できる新たな第三者監査手法を提案する。
メタのアルゴリズムによる教育機会の広告配信における人種差別の証拠を見つけ、法的および倫理的懸念を訴える。
論文 参考訳(メタデータ) (2024-06-02T02:00:55Z) - Exposing Algorithmic Discrimination and Its Consequences in Modern
Society: Insights from a Scoping Study [0.0]
この研究は、アルゴリズム的差別を報告している長年にわたる様々な研究を掘り下げている。
私たちはこの問題に対処するソフトウェア工学の研究者や実践者を支援することを目指しています。
論文 参考訳(メタデータ) (2023-12-08T05:09:00Z) - Factoring the Matrix of Domination: A Critical Review and Reimagination
of Intersectionality in AI Fairness [55.037030060643126]
間欠性は、社会的不平等の持続性を調べるための重要な枠組みである。
我々は、公平性を効果的に運用するために、交差性を分析的枠組みとして採用することが重要であると論じる。
論文 参考訳(メタデータ) (2023-03-16T21:02:09Z) - Multi-dimensional discrimination in Law and Machine Learning -- A
comparative overview [14.650860450187793]
公正を意識した機械学習の領域は、AI/MLモデルにおけるバイアスの理解、緩和、説明のための方法とアルゴリズムに焦点を当てている。
実際には、人間のアイデンティティは多次元であり、複数の保護された特徴に基づいて識別を行うことができる。
この方向の最近のアプローチは、主に法域からのいわゆる交叉フェアネスの定義に従う。
論文 参考訳(メタデータ) (2023-02-12T20:41:58Z) - Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP [64.45845091719002]
現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
本稿では,その現状を解明し,公正学習における意味ある進歩の道筋を立案することを目的とする。
論文 参考訳(メタデータ) (2023-02-11T14:54:00Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Developing a Philosophical Framework for Fair Machine Learning: Lessons
From The Case of Algorithmic Collusion [0.0]
機械学習アルゴリズムが新しい文脈に適用されるにつれて、結果の害と不正は質的に異なる。
フェアネスのメトリクスと定義を開発する機械学習における既存の研究パラダイムは、これらの質的に異なる種類の不正を考慮できない。
本稿では,公正度指標の開発と適用を目指す機械学習の研究者や実践者を対象とした倫理的枠組みを提案する。
論文 参考訳(メタデータ) (2022-07-05T16:21:56Z) - Reusing the Task-specific Classifier as a Discriminator:
Discriminator-free Adversarial Domain Adaptation [55.27563366506407]
非教師付きドメイン適応(UDA)のための識別器なし対向学習ネットワーク(DALN)を導入する。
DALNは、統一された目的によって明確なドメインアライメントとカテゴリの区別を達成する。
DALNは、さまざまなパブリックデータセット上の既存の最先端(SOTA)メソッドと比較して好意的に比較する。
論文 参考訳(メタデータ) (2022-04-08T04:40:18Z) - A Sociotechnical View of Algorithmic Fairness [16.184328505946763]
アルゴリズムの公正さは、自動意思決定におけるシステム的差別を緩和する新しい技術として位置づけられている。
公平性は本質的に社会的概念であり、それゆえにアルゴリズム的公正性のための技術は社会技術的レンズを通してアプローチされるべきである、と我々は主張する。
論文 参考訳(メタデータ) (2021-09-27T21:17:16Z) - Case Study: Deontological Ethics in NLP [119.53038547411062]
我々はNLPの観点から1つの倫理理論、すなわち非オントロジー的倫理について研究する。
特に、インフォームド・コンセントを通じて、一般化原則と自律性への敬意に焦点を当てる。
NLPシステムでこれらの原則をどのように利用できるかを示すための4つのケーススタディを提供する。
論文 参考訳(メタデータ) (2020-10-09T16:04:51Z) - Bias and Discrimination in AI: a cross-disciplinary perspective [5.190307793476366]
我々は、AIにおけるバイアスと差別の解決策を見つけるには、堅牢な学際的コラボレーションが必要であることを示した。
我々は、技術的、法的、社会的、倫理的な側面を組み込んだ学際的な視点から、AIにおけるバイアスと差別に関する関連文献を調査した。
論文 参考訳(メタデータ) (2020-08-11T10:02:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。