論文の概要: Improving Counterfactual Generation for Fair Hate Speech Detection
- arxiv url: http://arxiv.org/abs/2108.01721v1
- Date: Tue, 3 Aug 2021 19:47:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-05 13:15:52.092569
- Title: Improving Counterfactual Generation for Fair Hate Speech Detection
- Title(参考訳): フェアヘイト音声検出のための対物生成の改善
- Authors: Aida Mostafazadeh Davani, Ali Omrani, Brendan Kennedy, Mohammad Atari,
Xiang Ren, Morteza Dehghani
- Abstract要約: バイアス緩和アプローチは、社会集団トークン(SGTs)のような、データの繊細な特徴に対するモデルの依存を減らす
しかし、ヘイトスピーチ検出においては、モデル予測の等化は、対象とする社会グループ間での重要な違いを無視する可能性がある。
ここでは,SGTの変更によって生じる,反事実の公平性に頼り,反事実間の予測を等化する。
- 参考スコア(独自算出の注目度): 26.79268141793483
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bias mitigation approaches reduce models' dependence on sensitive features of
data, such as social group tokens (SGTs), resulting in equal predictions across
the sensitive features. In hate speech detection, however, equalizing model
predictions may ignore important differences among targeted social groups, as
hate speech can contain stereotypical language specific to each SGT. Here, to
take the specific language about each SGT into account, we rely on
counterfactual fairness and equalize predictions among counterfactuals,
generated by changing the SGTs. Our method evaluates the similarity in sentence
likelihoods (via pre-trained language models) among counterfactuals, to treat
SGTs equally only within interchangeable contexts. By applying logit pairing to
equalize outcomes on the restricted set of counterfactuals for each instance,
we improve fairness metrics while preserving model performance on hate speech
detection.
- Abstract(参考訳): バイアス緩和アプローチは、ソーシャルグループトークン(SGT)のようなデータのセンシティブな特徴に対するモデルの依存を減らす。
しかし、ヘイトスピーチ検出においては、各SGTに特有のステレオタイプ言語を含むことができるため、モデル予測の等化は、対象とする社会グループ間の重要な違いを無視する可能性がある。
ここでは、各SGTに関する特定の言語を考慮に入れるために、SGTの変更によって生成される対実的公正性と、対実的公正性の等化に依存する。
提案手法は,SGTを交換可能な文脈内でのみ等しく扱うために,文の類似度(事前学習言語モデルによる)を評価する。
本研究では,各インスタンスの限定された反事実集合に対する結果の等化にロジットペアを適用することにより,ヘイトスピーチ検出におけるモデル性能を保ちながら,公正度を向上する。
関連論文リスト
- Unlikelihood Tuning on Negative Samples Amazingly Improves Zero-Shot
Translation [79.96416609433724]
Zero-shot Translation (ZST)は、トレーニングデータにおいて、目に見えない言語ペア間の翻訳を目的としている。
推論中にゼロショット言語マッピングをガイドする一般的な方法は、ソースとターゲット言語IDを意図的に挿入することである。
近年の研究では、言語IDが時折ZSTタスクのナビゲートに失敗し、ターゲット外問題に悩まされることが示されている。
論文 参考訳(メタデータ) (2023-09-28T17:02:36Z) - HyPoradise: An Open Baseline for Generative Speech Recognition with
Large Language Models [81.56455625624041]
ASRの誤り訂正に外部の大規模言語モデル(LLM)を利用する最初のオープンソースベンチマークを導入する。
提案したベンチマークには、334,000組以上のN-best仮説を含む新しいデータセットHyPoradise (HP)が含まれている。
合理的なプロンプトと生成能力を持つLLMは、N-bestリストに欠けているトークンを修正できる。
論文 参考訳(メタデータ) (2023-09-27T14:44:10Z) - ChatGPT as a Text Simplification Tool to Remove Bias [0.0]
特定のサブグループに特有の言語信号の存在は、訓練中に言語モデルによって拾うことができる。
テキストの簡易化という形でバイアス緩和の可能性を探る。
論文 参考訳(メタデータ) (2023-05-09T13:10:23Z) - Does Manipulating Tokenization Aid Cross-Lingual Transfer? A Study on
POS Tagging for Non-Standardized Languages [18.210880703295253]
3つの異なる家系の7つの言語で事前訓練された言語モデル(PLM)を精査する。
我々は,そのゼロショット性能を,近縁な非標準多様体で解析する。
全体として、ソース内のサブワードに分割される単語の割合とターゲットデータとの類似性が、ターゲットデータ上でのモデル性能の予測に最強であることが判明した。
論文 参考訳(メタデータ) (2023-04-20T08:32:34Z) - Necessity and Sufficiency for Explaining Text Classifiers: A Case Study
in Hate Speech Detection [7.022948483613112]
本稿では,テキスト分類器を記述し,ヘイトスピーチ検出の文脈で解析する特徴属性法を提案する。
我々は2つの相補的で理論的に根ざしたスコア -- 必然性と十分性 -- を提供し、より情報的な説明をもたらす。
提案手法は,テストスイートから得られた同じ例の集合上で異なるヘイトスピーチ検出モデルの予測を解析し,必要条件と有効条件の異なる値が,異なる種類の偽陽性誤りに対応していることを示す。
論文 参考訳(メタデータ) (2022-05-06T15:34:48Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Addressing the Challenges of Cross-Lingual Hate Speech Detection [115.1352779982269]
本稿では,低リソース言語におけるヘイトスピーチ検出を支援するために,言語間移動学習に着目した。
言語間単語の埋め込みを利用して、ソース言語上でニューラルネットワークシステムをトレーニングし、ターゲット言語に適用します。
本研究では,ヘイトスピーチデータセットのラベル不均衡の問題について検討する。なぜなら,ヘイトサンプルと比較して非ヘイトサンプルの比率が高いことがモデル性能の低下につながることが多いからだ。
論文 参考訳(メタデータ) (2022-01-15T20:48:14Z) - Characterizing the adversarial vulnerability of speech self-supervised
learning [95.03389072594243]
我々は,ゼロ知識とリミテッド知識の両方の敵からの攻撃の下で,そのようなパラダイムの敵対的脆弱性を調査するための最初の試みを行う。
実験結果から, SUPERB が提案するパラダイムは, 限られた知識を持つ敵に対して脆弱であることが示唆された。
論文 参考訳(メタデータ) (2021-11-08T08:44:04Z) - Direct speech-to-speech translation with discrete units [64.19830539866072]
本稿では、中間テキスト生成に頼ることなく、ある言語から別の言語に音声を変換する直接音声音声翻訳(S2ST)モデルを提案する。
そこで本稿では,ラベルなし音声コーパスから学習した自己教師付き離散表現の予測を提案する。
対象のテキスト書き起こしが利用可能となると、同一の推論パスで2つのモード出力(音声とテキスト)を同時に生成できる、共同音声認識とテキストトレーニングを備えたマルチタスク学習フレームワークを設計する。
論文 参考訳(メタデータ) (2021-07-12T17:40:43Z) - Fair Hate Speech Detection through Evaluation of Social Group
Counterfactuals [21.375422346539004]
教師付きモデルにおけるバイアス軽減のためのアプローチは、入力データの特定の敏感な特徴へのモデルの依存を減らすように設計されている。
ヘイトスピーチ検出の場合、必ずしも社会集団の効果を平等にすることが望ましいとは限らない。
言及された社会集団に対する対実的トークンフェアネスは、(a)実際の文と(b)反実的事例について、モデルが同一であるかどうかについて、モデルの予測を評価する。
提案手法は,実文と類似した意味を持つ反事実に対する頑健なモデル予測を保証する。
論文 参考訳(メタデータ) (2020-10-24T04:51:47Z) - Learning not to Discriminate: Task Agnostic Learning for Improving
Monolingual and Code-switched Speech Recognition [12.354292498112347]
本稿では、ドメイン逆学習を用いてタスクモデルを訓練することにより、これまでの作業よりもさらに改善する。
提案手法は,単語誤り率(WER)を3つの言語対に対して単言語およびコード切替テストセットで削減する。
論文 参考訳(メタデータ) (2020-06-09T13:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。