論文の概要: Social Biases in NLP Models as Barriers for Persons with Disabilities
- arxiv url: http://arxiv.org/abs/2005.00813v1
- Date: Sat, 2 May 2020 12:16:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 11:30:17.710474
- Title: Social Biases in NLP Models as Barriers for Persons with Disabilities
- Title(参考訳): 障害者用バリアとしてのNLPモデルにおける社会的バイアス
- Authors: Ben Hutchinson, Vinodkumar Prabhakaran, Emily Denton, Kellie Webster,
Yu Zhong, Stephen Denuyl
- Abstract要約: 本稿では、障害の言及に対する望ましくない偏見の証拠として、毒性予測と感情分析の2つの異なる英語モデルについて述べる。
次に、ほとんどのNLPパイプラインにおいて重要な第一歩である神経埋め込みが、障害の言及に対する望ましくないバイアスを含むことを実証する。
最終的に、観察されたモデルバイアスに寄与する可能性のある障害に関する談話の中で、トピックのバイアスを強調します。
- 参考スコア(独自算出の注目度): 13.579848462349192
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Building equitable and inclusive NLP technologies demands consideration of
whether and how social attitudes are represented in ML models. In particular,
representations encoded in models often inadvertently perpetuate undesirable
social biases from the data on which they are trained. In this paper, we
present evidence of such undesirable biases towards mentions of disability in
two different English language models: toxicity prediction and sentiment
analysis. Next, we demonstrate that the neural embeddings that are the critical
first step in most NLP pipelines similarly contain undesirable biases towards
mentions of disability. We end by highlighting topical biases in the discourse
about disability which may contribute to the observed model biases; for
instance, gun violence, homelessness, and drug addiction are over-represented
in texts discussing mental illness.
- Abstract(参考訳): 公平かつ包括的なNLP技術の構築には、社会的態度がMLモデルでどのように表現されるかを検討する必要がある。
特に、モデルにエンコードされた表現はしばしば、訓練されたデータから望ましくない社会的バイアスを不注意に永続化する。
本稿では,2つの異なる英語モデル(有毒性予測と感情分析)における障害の言及に対する好ましくない偏りの証拠を示す。
次に、ほとんどのnlpパイプラインで重要な第1ステップである神経組込みが、障害への言及に対する望ましくないバイアスを含むことを実証する。
最後に、銃の暴力、ホームレス、薬物依存など、観察されたモデルバイアスに寄与する可能性のある障害に関する談話の話題バイアスを強調することで締めくくる。
関連論文リスト
- The Devil is in the Neurons: Interpreting and Mitigating Social Biases in Pre-trained Language Models [78.69526166193236]
プレトレーニング言語モデル(PLM)は、社会的バイアスのような有害な情報を含むことが認識されている。
我々は,社会バイアスなどの望ましくない行動に起因する言語モデルにおいて,正確に単位(すなわちニューロン)を特定するために,sc Social Bias Neuronsを提案する。
StereoSetの以前の測定値からわかるように、我々のモデルは、低コストで言語モデリング能力を維持しながら、より高い公平性を達成する。
論文 参考訳(メタデータ) (2024-06-14T15:41:06Z) - Decoding Susceptibility: Modeling Misbelief to Misinformation Through a Computational Approach [61.04606493712002]
誤報に対する感受性は、観測不可能な不検証の主張に対する信念の度合いを記述している。
既存の感受性研究は、自己報告された信念に大きく依存している。
本稿では,ユーザの潜在感受性レベルをモデル化するための計算手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T07:22:56Z) - Social Bias Probing: Fairness Benchmarking for Language Models [38.180696489079985]
本稿では,社会的偏見を考慮した言語モデル構築のための新しい枠組みを提案する。
既存のフェアネスコレクションの制限に対処するために設計された大規模なベンチマークであるSoFaをキュレートする。
我々は、言語モデル内のバイアスが認識されるよりもニュアンスが高いことを示し、これまで認識されていたよりもより広く符号化されたバイアスの範囲を示している。
論文 参考訳(メタデータ) (2023-11-15T16:35:59Z) - Survey of Social Bias in Vision-Language Models [65.44579542312489]
調査の目的は、NLP、CV、VLをまたいだ事前学習モデルにおける社会バイアス研究の類似点と相違点について、研究者に高いレベルの洞察を提供することである。
ここで提示された発見とレコメンデーションはMLコミュニティの利益となり、公平でバイアスのないAIモデルの開発を促進する。
論文 参考訳(メタデータ) (2023-09-24T15:34:56Z) - Automated Ableism: An Exploration of Explicit Disability Biases in
Sentiment and Toxicity Analysis Models [5.611973529240434]
障害者に対する明示的偏見の有無を検出するための感情分析と毒性検出モデル(PWD)について分析する。
我々は、摂動感分析のバイアス識別フレームワークを用いて、ソーシャルメディアプラットフォーム、特にTwitterとRedditにおけるPWDに関連する会話を調べる。
次に、感情分析および毒性検出モデルにおいて、明示的な障害バイアスを定量化するために、textitBias Identification Test in Sentiment (BITS)コーパスを作成する。
論文 参考訳(メタデータ) (2023-07-18T12:45:54Z) - Bayesian Networks for the robust and unbiased prediction of depression
and its symptoms utilizing speech and multimodal data [65.28160163774274]
我々は,抑うつ,抑うつ症状,および,胸腺で収集された音声,表情,認知ゲームデータから得られる特徴の関連性を把握するためにベイズ的枠組みを適用した。
論文 参考訳(メタデータ) (2022-11-09T14:48:13Z) - A Survey of Methods for Addressing Class Imbalance in Deep-Learning
Based Natural Language Processing [68.37496795076203]
非バランスなデータを扱うNLP研究者や実践者に対してガイダンスを提供する。
まず、制御および実世界のクラス不均衡の様々なタイプについて論じる。
サンプリング,データ拡張,損失関数の選択,ステージ学習,モデル設計に基づく手法を整理する。
論文 参考訳(メタデータ) (2022-10-10T13:26:40Z) - Identification of Bias Against People with Disabilities in Sentiment
Analysis and Toxicity Detection Models [0.5758109624133713]
本稿では,障害のバイアスに対する感情分析モデルを探索するための1,126文のコーパスであるBITS(Bias Identification Test in Sentiments)を提案する。
その結果, 障害に言及した文に対して, いずれも負のバイアスが強いことが示唆された。
論文 参考訳(メタデータ) (2021-11-25T21:44:18Z) - Unpacking the Interdependent Systems of Discrimination: Ableist Bias in
NLP Systems through an Intersectional Lens [20.35460711907179]
大規模BERT言語モデルの単語予測に基づく各種解析について報告する。
統計的に有意な結果は、障害者が不利になる可能性があることを示している。
発見者はまた、相互に結びついた性別や人種のアイデンティティに関連する、重複する形の差別についても検討している。
論文 参考訳(メタデータ) (2021-10-01T16:40:58Z) - Towards Understanding and Mitigating Social Biases in Language Models [107.82654101403264]
大規模事前訓練言語モデル(LM)は、望ましくない表現バイアスを示すのに潜在的に危険である。
テキスト生成における社会的バイアスを軽減するためのステップを提案する。
我々の経験的結果と人的評価は、重要な文脈情報を保持しながらバイアスを緩和する効果を示す。
論文 参考訳(メタデータ) (2021-06-24T17:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。