論文の概要: D-XCB: Data-independent Debiasing for Fair and Accurate
Transformer-based Cyberbullying Detection
- arxiv url: http://arxiv.org/abs/2402.16458v1
- Date: Mon, 26 Feb 2024 10:02:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-27 13:57:24.131361
- Title: D-XCB: Data-independent Debiasing for Fair and Accurate
Transformer-based Cyberbullying Detection
- Title(参考訳): d-xcb:公平かつ正確なトランスフォーマーに基づくサイバーいじめ検出のためのデータ非依存デバイアス
- Authors: Peiling Yi and Arkaitz Zubiaga
- Abstract要約: ID-XCBは、逆行訓練、バイアス制約、微調整を組み合わせた最初のデータ非依存型デバイアス処理技術である。
我々は,ID-XCBがバイアスを緩和しながらロバストなサイバーいじめ検出能力を学習し,性能とバイアス軽減の両面で最先端のデバイアス法より優れていることを示す。
- 参考スコア(独自算出の注目度): 8.556183465416156
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Swear words are a common proxy to collect datasets with cyberbullying
incidents. Our focus is on measuring and mitigating biases derived from
spurious associations between swear words and incidents occurring as a result
of such data collection strategies. After demonstrating and quantifying these
biases, we introduce ID-XCB, the first data-independent debiasing technique
that combines adversarial training, bias constraints and debias fine-tuning
approach aimed at alleviating model attention to bias-inducing words without
impacting overall model performance. We explore ID-XCB on two popular
session-based cyberbullying datasets along with comprehensive ablation and
generalisation studies. We show that ID-XCB learns robust cyberbullying
detection capabilities while mitigating biases, outperforming state-of-the-art
debiasing methods in both performance and bias mitigation. Our quantitative and
qualitative analyses demonstrate its generalisability to unseen data.
- Abstract(参考訳): ウェアワードは、サイバーいじめインシデントを伴うデータセットを収集する一般的なプロキシである。
我々の焦点は、こうしたデータ収集戦略の結果として発生した誓約語とインシデントの間の素早い関連から導かれるバイアスの測定と緩和である。
これらのバイアスを実証し、定量化した後、モデル性能に影響を与えることなく、モデル注意をバイアス誘発語に緩和することを目的とした、敵対的トレーニング、バイアス制約、デバイアス微調整のアプローチを組み合わせた、最初のデータ非依存型デバイアス処理手法であるID-XCBを導入する。
セッションベースサイバーいじめデータセットのID-XCBと包括的アブレーションと一般化研究について検討する。
我々は,ID-XCBがバイアスを緩和しながらロバストなサイバーいじめ検出能力を学習し,性能とバイアス軽減の両面で最先端のデバイアス法より優れていることを示す。
定量的・定性的な分析により,データの一般性が証明された。
関連論文リスト
- Delving into Identify-Emphasize Paradigm for Combating Unknown Bias [52.76758938921129]
同定精度を高めるため,有効バイアス強調スコアリング法(ECS)を提案する。
また, マイニングされたバイアスアライメントとバイアスコンプリケート試料のコントリビューションのバランスをとるために, 勾配アライメント(GA)を提案する。
様々な環境で複数のデータセットで実験を行い、提案されたソリューションが未知のバイアスの影響を軽減することを実証した。
論文 参考訳(メタデータ) (2023-02-22T14:50:24Z) - Investigating Bias with a Synthetic Data Generator: Empirical Evidence
and Philosophical Interpretation [66.64736150040093]
機械学習の応用は、私たちの社会でますます広まりつつある。
リスクは、データに埋め込まれたバイアスを体系的に広めることである。
本稿では,特定の種類のバイアスとその組み合わせで合成データを生成するフレームワークを導入することにより,バイアスを分析することを提案する。
論文 参考訳(メタデータ) (2022-09-13T11:18:50Z) - Learning Debiased Classifier with Biased Committee [30.417623580157834]
ニューラルネットワークは、トレーニングデータの大部分で示されるクラスと潜在属性の急激な相関に偏りがちである。
そこで本研究では,突発性属性ラベルを持たない脱バイアス分類器を訓練するための新しい手法を提案する。
実世界の5つのデータセットにおいて、我々の手法は、私たちのような刺激的な属性ラベルを使わずに先行技術より優れており、時にはバイアスラベルに依存するものよりも優れています。
論文 参考訳(メタデータ) (2022-06-22T04:50:28Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - Learning Bias-Invariant Representation by Cross-Sample Mutual
Information Minimization [77.8735802150511]
対象タスクが誤用したバイアス情報を除去するために,クロスサンプル対逆脱バイアス法(CSAD)を提案する。
相関測定は, 対向的偏り評価において重要な役割を担い, クロスサンプル型相互情報推定器によって行われる。
我々は,提案手法の最先端手法に対する利点を検証するために,公開データセットの徹底的な実験を行った。
論文 参考訳(メタデータ) (2021-08-11T21:17:02Z) - Learning Debiased Representation via Disentangled Feature Augmentation [19.348340314001756]
本稿では, 様々なバイアスを伴うサンプルを用いたトレーニングが, 脱バイアスに不可欠であることを示す実験的検討を行った。
本稿では, 多様なバイアス分散サンプルを合成するために, 特徴レベルのデータ拡張手法を提案する。
論文 参考訳(メタデータ) (2021-07-03T08:03:25Z) - Regularizing Models via Pointwise Mutual Information for Named Entity
Recognition [17.767466724342064]
ドメイン内での性能を向上しつつ、一般化能力を高めるために、PMI(Pointwise Mutual Information)を提案する。
提案手法により,ベンチマークデータセットの単語とラベルの相関度を高く抑えることができる。
長い名前と複雑な構造を持つエンティティに対して、これらのエンティティは協調的あるいは特別な文字の偏りによって予測できる。
論文 参考訳(メタデータ) (2021-04-15T05:47:27Z) - Improving Robustness by Augmenting Training Sentences with
Predicate-Argument Structures [62.562760228942054]
データセットバイアスに対するロバスト性を改善する既存のアプローチは、主にトレーニング目標の変更に焦点を当てている。
本稿では,学習データ中の入力文に対応する述語句構造を付加することを提案する。
特定のバイアスを対象とせずに、文の増大は、複数のバイアスに対してトランスフォーマーモデルの堅牢性を向上することを示す。
論文 参考訳(メタデータ) (2020-10-23T16:22:05Z) - Towards Accuracy-Fairness Paradox: Adversarial Example-based Data
Augmentation for Visual Debiasing [15.689539491203373]
機械学習の公平性は、ターゲットタスクに対処する際に、特定の保護された、または機密性の高いグループに対するバイアスを懸念する。
本稿では,画像分類タスクの文脈におけるバイアス問題について検討する。
論文 参考訳(メタデータ) (2020-07-27T15:17:52Z) - Learning from Failure: Training Debiased Classifier from Biased
Classifier [76.52804102765931]
ニューラルネットワークは、所望の知識よりも学習が簡単である場合にのみ、素早い相関に依存することを学習していることを示す。
本稿では,一対のニューラルネットワークを同時にトレーニングすることで,障害に基づくデバイアス化手法を提案する。
本手法は,合成データセットと実世界のデータセットの両方において,各種バイアスに対するネットワークのトレーニングを大幅に改善する。
論文 参考訳(メタデータ) (2020-07-06T07:20:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。