論文の概要: Unpacking the Interdependent Systems of Discrimination: Ableist Bias in
NLP Systems through an Intersectional Lens
- arxiv url: http://arxiv.org/abs/2110.00521v1
- Date: Fri, 1 Oct 2021 16:40:58 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-04 14:47:28.121251
- Title: Unpacking the Interdependent Systems of Discrimination: Ableist Bias in
NLP Systems through an Intersectional Lens
- Title(参考訳): 識別の相互依存系を解き放つ:断面レンズによるNLP系におけるアブレストバイアス
- Authors: Saad Hassan and Matt Huenerfauth and Cecilia Ovesdotter Alm
- Abstract要約: 大規模BERT言語モデルの単語予測に基づく各種解析について報告する。
統計的に有意な結果は、障害者が不利になる可能性があることを示している。
発見者はまた、相互に結びついた性別や人種のアイデンティティに関連する、重複する形の差別についても検討している。
- 参考スコア(独自算出の注目度): 20.35460711907179
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Much of the world's population experiences some form of disability during
their lifetime. Caution must be exercised while designing natural language
processing (NLP) systems to prevent systems from inadvertently perpetuating
ableist bias against people with disabilities, i.e., prejudice that favors
those with typical abilities. We report on various analyses based on word
predictions of a large-scale BERT language model. Statistically significant
results demonstrate that people with disabilities can be disadvantaged.
Findings also explore overlapping forms of discrimination related to
interconnected gender and race identities.
- Abstract(参考訳): 世界の人口の多くは、生涯に何らかの障害を経験している。
自然言語処理(nlp)システムを設計する際には、障害のある人、すなわち典型的な能力を持つ人を好む偏見に対して、システムが不注意に能力主義的な偏見を持続させないよう注意する必要がある。
大規模BERT言語モデルの単語予測に基づく各種解析について報告する。
統計的に有意な結果は障害者が不利であることを示している。
また、性や人種のアイデンティティが相互に関連した差別の重なり合いについても研究している。
関連論文リスト
- "One-size-fits-all"? Observations and Expectations of NLG Systems Across
Identity-Related Language Features [61.07254514062558]
適応のためのモチベーションには,社会的規範,文化的相違,特徴特化情報,宿泊が含まれる。
本研究は, 公正なNLGシステム動作を構成するものの定義に関して, オープンな課題を浮き彫りにした。
論文 参考訳(メタデータ) (2023-10-23T23:00:34Z) - Large Language Models Can Infer Psychological Dispositions of Social
Media Users [1.2277343096128712]
本研究では,デジタルフットプリントから個人の心理的沈着を推定する大規模言語モデルの可能性について検討した。
ゼロショット学習シナリオにおいて,GPT-3.5とGPT-4がユーザのFacebookステータス更新からビッグファイブの特徴を引き出す能力を評価する。
以上の結果から,性別や年齢に対する性格推定の偏りが示唆された。
論文 参考訳(メタデータ) (2023-09-13T01:27:48Z) - Med-UniC: Unifying Cross-Lingual Medical Vision-Language Pre-Training by
Diminishing Bias [38.26934474189853]
Med-UniC (Med-UniC) は、英語とスペイン語のマルチモーダル医療データを統合したものである。
Med-UniCは、5つの医療画像タスクと30以上の疾患を含む10のデータセットで優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-05-31T14:28:19Z) - Stable Bias: Analyzing Societal Representations in Diffusion Models [72.27121528451528]
本稿では,テキスト・ツー・イメージ(TTI)システムにおける社会的バイアスを探索する新しい手法を提案する。
我々のアプローチは、プロンプト内の性別や民族のマーカーを列挙して生成された画像の変動を特徴づけることに依存している。
我々はこの手法を利用して3つのTTIシステムによって生成された画像を分析し、そのアウトプットが米国の労働人口層と相関しているのに対して、彼らは常に異なる範囲において、限界化されたアイデンティティを低く表現している。
論文 参考訳(メタデータ) (2023-03-20T19:32:49Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - A Survey on Bias and Fairness in Natural Language Processing [1.713291434132985]
我々は、バイアスの起源、公平性の定義、NLPバイアスのサブフィールドの違いを緩和する方法について分析する。
我々は,NLPアルゴリズムによる悪質な偏見の根絶に向けた今後の研究について論じる。
論文 参考訳(メタデータ) (2022-03-06T18:12:30Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Revealing Persona Biases in Dialogue Systems [64.96908171646808]
対話システムにおけるペルソナバイアスに関する最初の大規模研究について述べる。
我々は、異なる社会階級、性的指向、人種、性別のペルソナの分析を行う。
BlenderおよびDialoGPT対話システムの研究では、ペルソナの選択が生成された応答の害の程度に影響を与える可能性があることを示しています。
論文 参考訳(メタデータ) (2021-04-18T05:44:41Z) - Interpretable bias mitigation for textual data: Reducing gender bias in
patient notes while maintaining classification performance [0.11545092788508224]
2つの臨床ノートデータセットから性別付き言語を識別・除去する。
データ拡張による低~中レベルのバイアス除去のための健康状態分類タスクの最小劣化を示す。
本研究は,自然言語処理パイプラインにおけるバイアスを識別・低減するために,データ拡張を用いた解釈可能なアプローチを概説する。
論文 参考訳(メタデータ) (2021-03-10T03:09:30Z) - Decoding and Diversity in Machine Translation [90.33636694717954]
NMTが楽しむBLEUスコアに対して支払う費用の多様性の違いを特徴付ける。
本研究は,ジェンダー代名詞を翻訳する際に,検索が既知バイアスの正解源となることを示唆する。
論文 参考訳(メタデータ) (2020-11-26T21:09:38Z) - Social Biases in NLP Models as Barriers for Persons with Disabilities [13.579848462349192]
本稿では、障害の言及に対する望ましくない偏見の証拠として、毒性予測と感情分析の2つの異なる英語モデルについて述べる。
次に、ほとんどのNLPパイプラインにおいて重要な第一歩である神経埋め込みが、障害の言及に対する望ましくないバイアスを含むことを実証する。
最終的に、観察されたモデルバイアスに寄与する可能性のある障害に関する談話の中で、トピックのバイアスを強調します。
論文 参考訳(メタデータ) (2020-05-02T12:16:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。