論文の概要: Automated Ableism: An Exploration of Explicit Disability Biases in
Sentiment and Toxicity Analysis Models
- arxiv url: http://arxiv.org/abs/2307.09209v1
- Date: Tue, 18 Jul 2023 12:45:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-19 14:54:49.688481
- Title: Automated Ableism: An Exploration of Explicit Disability Biases in
Sentiment and Toxicity Analysis Models
- Title(参考訳): 自動有能性:感情と毒性分析モデルにおける明らかな障害バイアスの検討
- Authors: Pranav Narayanan Venkit, Mukund Srinath, Shomir Wilson
- Abstract要約: 障害者に対する明示的偏見の有無を検出するための感情分析と毒性検出モデル(PWD)について分析する。
我々は、摂動感分析のバイアス識別フレームワークを用いて、ソーシャルメディアプラットフォーム、特にTwitterとRedditにおけるPWDに関連する会話を調べる。
次に、感情分析および毒性検出モデルにおいて、明示的な障害バイアスを定量化するために、textitBias Identification Test in Sentiment (BITS)コーパスを作成する。
- 参考スコア(独自算出の注目度): 5.611973529240434
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We analyze sentiment analysis and toxicity detection models to detect the
presence of explicit bias against people with disability (PWD). We employ the
bias identification framework of Perturbation Sensitivity Analysis to examine
conversations related to PWD on social media platforms, specifically Twitter
and Reddit, in order to gain insight into how disability bias is disseminated
in real-world social settings. We then create the \textit{Bias Identification
Test in Sentiment} (BITS) corpus to quantify explicit disability bias in any
sentiment analysis and toxicity detection models. Our study utilizes BITS to
uncover significant biases in four open AIaaS (AI as a Service) sentiment
analysis tools, namely TextBlob, VADER, Google Cloud Natural Language API,
DistilBERT and two toxicity detection models, namely two versions of
Toxic-BERT. Our findings indicate that all of these models exhibit
statistically significant explicit bias against PWD.
- Abstract(参考訳): 感情分析と毒性検出モデルを分析し,障害のある人(pwd)に対する明らかなバイアスの存在を検出する。
我々は,ソーシャルメディアプラットフォーム,特にtwitterとredditにおけるpwdに関連する会話を調べるために,摂動感度分析のバイアス識別フレームワークを用いて,実社会環境での障害バイアスの拡散状況を把握する。
そして、任意の感情分析および毒性検出モデルにおいて明らかな障害バイアスを定量化するために、 \textit{bias identification test in sentiment} (bits)コーパスを作成します。
調査ではBITSを用いて、TextBlob、VADER、Google Cloud Natural Language API、DistilBERTと2つの毒性検出モデル、すなわち2つのバージョンのToxic-BERTの4つのオープンAIaaS(AI as a Service)感情分析ツールの重大なバイアスを明らかにする。
以上の結果から,これらのモデルはすべてpwdに対する統計的に有意な偏りを示した。
関連論文リスト
- The Devil is in the Neurons: Interpreting and Mitigating Social Biases in Pre-trained Language Models [78.69526166193236]
プレトレーニング言語モデル(PLM)は、社会的バイアスのような有害な情報を含むことが認識されている。
我々は,社会バイアスなどの望ましくない行動に起因する言語モデルにおいて,正確に単位(すなわちニューロン)を特定するために,sc Social Bias Neuronsを提案する。
StereoSetの以前の測定値からわかるように、我々のモデルは、低コストで言語モデリング能力を維持しながら、より高い公平性を達成する。
論文 参考訳(メタデータ) (2024-06-14T15:41:06Z) - On the Robustness of Aspect-based Sentiment Analysis: Rethinking Model,
Data, and Training [109.9218185711916]
アスペクトベースの感情分析(ABSA)は、ソーシャルメディアのテキストやレビューの背後にある製品やサービスの特定の側面に対して、特定の感情の極性を自動的に推測することを目的としている。
我々は、モデル、データ、トレーニングを含むあらゆる可能な角度からボトルネックを体系的に再考することで、ABSAの堅牢性を高めることを提案する。
論文 参考訳(メタデータ) (2023-04-19T11:07:43Z) - Stable Bias: Analyzing Societal Representations in Diffusion Models [72.27121528451528]
本稿では,テキスト・ツー・イメージ(TTI)システムにおける社会的バイアスを探索する新しい手法を提案する。
我々のアプローチは、プロンプト内の性別や民族のマーカーを列挙して生成された画像の変動を特徴づけることに依存している。
我々はこの手法を利用して3つのTTIシステムによって生成された画像を分析し、そのアウトプットが米国の労働人口層と相関しているのに対して、彼らは常に異なる範囲において、限界化されたアイデンティティを低く表現している。
論文 参考訳(メタデータ) (2023-03-20T19:32:49Z) - Aspect-Based Sentiment Analysis using Local Context Focus Mechanism with
DeBERTa [23.00810941211685]
Aspect-Based Sentiment Analysis (ABSA)は、感情分析の分野におけるきめ細かいタスクである。
アスペクトベース感性分析問題を解決するための最近のDeBERTaモデル
論文 参考訳(メタデータ) (2022-07-06T03:50:31Z) - Toxicity Detection with Generative Prompt-based Inference [3.9741109244650823]
言語モデル(LM)は、望ましくない内容を含むコーパスで訓練され、バイアスや毒性を示す能力を持つことは、長年にわたって知られていたリスクである。
本研究では,ゼロショットプロンプトによる毒性検出の生成的変異について検討し,プロンプトエンジニアリングに関する総合的な試行を行った。
論文 参考訳(メタデータ) (2022-05-24T22:44:43Z) - Identification of Bias Against People with Disabilities in Sentiment
Analysis and Toxicity Detection Models [0.5758109624133713]
本稿では,障害のバイアスに対する感情分析モデルを探索するための1,126文のコーパスであるBITS(Bias Identification Test in Sentiments)を提案する。
その結果, 障害に言及した文に対して, いずれも負のバイアスが強いことが示唆された。
論文 参考訳(メタデータ) (2021-11-25T21:44:18Z) - Revisiting Contextual Toxicity Detection in Conversations [28.465019968374413]
ヒトによる毒性のラベル付けは、一般的に、会話の構造、極性、文脈の話題に影響されている。
本稿では、文脈毒性検出のためのニューラルネットワークを導入して、これらの知見を計算検出モデルに適用することを提案する。
また、このようなモデルが、特にソーシャルメディア領域において、合成データの恩恵を受けることを実証した。
論文 参考訳(メタデータ) (2021-11-24T11:50:37Z) - AES Systems Are Both Overstable And Oversensitive: Explaining Why And
Proposing Defenses [66.49753193098356]
スコアリングモデルの驚くべき逆方向の脆さの原因について検討する。
のモデルとして訓練されているにもかかわらず、単語の袋のように振る舞うことを示唆している。
高い精度で試料を発生させる過敏性と過敏性を検出できる検出ベース保護モデルを提案する。
論文 参考訳(メタデータ) (2021-09-24T03:49:38Z) - Mitigating Biases in Toxic Language Detection through Invariant
Rationalization [70.36701068616367]
性別、人種、方言などの属性に対するバイアスは、毒性検出のためのほとんどのトレーニングデータセットに存在する。
本稿では,論理生成器と予測器から構成されるゲーム理論フレームワークである不変合理化(InvRat)を用いて,特定の構文パターンの素早い相関を除外することを提案する。
本手法は, 語彙属性と方言属性の両方において, 従来のデバイアス法よりも低い偽陽性率を示す。
論文 参考訳(メタデータ) (2021-06-14T08:49:52Z) - Challenges in Automated Debiasing for Toxic Language Detection [81.04406231100323]
バイアスド・アソシエーションは、有害な言語を検出するための分類器の開発において課題となっている。
我々は最近,有害な言語検出に適用されたテキスト分類データセットとモデルに対するデバイアス法について検討した。
我々の焦点は語彙(例えば、誓い言葉、スラー、アイデンティティの言及)と方言マーカー(特にアフリカ系アメリカ人の英語)である。
論文 参考訳(メタデータ) (2021-01-29T22:03:17Z) - Social Biases in NLP Models as Barriers for Persons with Disabilities [13.579848462349192]
本稿では、障害の言及に対する望ましくない偏見の証拠として、毒性予測と感情分析の2つの異なる英語モデルについて述べる。
次に、ほとんどのNLPパイプラインにおいて重要な第一歩である神経埋め込みが、障害の言及に対する望ましくないバイアスを含むことを実証する。
最終的に、観察されたモデルバイアスに寄与する可能性のある障害に関する談話の中で、トピックのバイアスを強調します。
論文 参考訳(メタデータ) (2020-05-02T12:16:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。