論文の概要: Contrastive Clustering: Toward Unsupervised Bias Reduction for Emotion
and Sentiment Classification
- arxiv url: http://arxiv.org/abs/2111.07448v1
- Date: Sun, 14 Nov 2021 20:58:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-16 13:52:14.109166
- Title: Contrastive Clustering: Toward Unsupervised Bias Reduction for Emotion
and Sentiment Classification
- Title(参考訳): コントラストクラスタリング:感情・感覚分類のための教師なしバイアス削減に向けて
- Authors: Jared Mowery
- Abstract要約: 本研究は、新型コロナウイルスのトピックに対するバイアスの影響を評価する。
新型コロナウイルス(COVID-19)のソーシャルメディアテキストに適用した場合、バイアスを減らすための自動アルゴリズムを実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Background: When neural network emotion and sentiment classifiers are used in
public health informatics studies, biases present in the classifiers could
produce inadvertently misleading results.
Objective: This study assesses the impact of bias on COVID-19 topics, and
demonstrates an automatic algorithm for reducing bias when applied to COVID-19
social media texts. This could help public health informatics studies produce
more timely results during crises, with a reduced risk of misleading results.
Methods: Emotion and sentiment classifiers were applied to COVID-19 data
before and after debiasing the classifiers using unsupervised contrastive
clustering. Contrastive clustering approximates the degree to which tokens
exhibit a causal versus correlational relationship with emotion or sentiment,
by contrasting the tokens' relative salience to topics versus emotions or
sentiments.
Results: Contrastive clustering distinguishes correlation from causation for
tokens with an F1 score of 0.753. Masking bias prone tokens from the classifier
input decreases the classifier's overall F1 score by 0.02 (anger) and 0.033
(negative sentiment), but improves the F1 score for sentences annotated as bias
prone by 0.155 (anger) and 0.103 (negative sentiment). Averaging across topics,
debiasing reduces anger estimates by 14.4% and negative sentiment estimates by
8.0%.
Conclusions: Contrastive clustering reduces algorithmic bias in emotion and
sentiment classification for social media text pertaining to the COVID-19
pandemic. Public health informatics studies should account for bias, due to its
prevalence across a range of topics. Further research is needed to improve bias
reduction techniques and to explore the adverse impact of bias on public health
informatics analyses.
- Abstract(参考訳): 背景: ニューラルネットワークの感情と感情分類器が公衆衛生情報学研究に使用される場合、分類器に存在するバイアスは不注意に誤解を招く結果を生み出す可能性がある。
目的:本研究は、新型コロナウイルスのトピックに対するバイアスの影響を評価し、ソーシャルメディアのテキストに適用した場合にバイアスを減らす自動アルゴリズムを示す。
これは公衆衛生情報学の研究が危機時によりタイムリーな結果をもたらすのに役立つ可能性がある。
方法:無監督のコントラストクラスタリングを用いた分類器の脱湿前後に感情分類器と感情分類器を適用した。
コントラストクラスタリング(Contrastive clustering)は、トークンが感情や感情と因果関係を示す程度を近似し、トークンの相対的なサリエンスをトピックと感情や感情と対比する。
結果: コントラストクラスタリングは, F1スコア0.753のトークンの因果関係と相関関係を区別する。
分類器入力からのマスキングバイアスは、分類器全体のf1スコアを0.02(アンガー)および0.033(ネガティブ感情)に減少させるが、バイアスに注釈された文のf1スコアを0.155(アンガー)および0.103(ネガティブ感情)に改善する。
話題を平均すると、デバイアスは怒りの見積もりを14.4%、ネガティブな感情を8.0%減少させる。
結論:コントラストクラスタリングは、新型コロナウイルスのパンデミックに関連するソーシャルメディアテキストに対する感情と感情の分類におけるアルゴリズム的バイアスを減少させる。
公衆衛生情報学の研究は、様々なトピックで流行しているため、バイアスを考慮すべきである。
バイアス低減技術の改善や、公衆衛生情報分析に対するバイアスの悪影響を探るためには、さらなる研究が必要である。
関連論文リスト
- Large-scale digital phenotyping: identifying depression and anxiety indicators in a general UK population with over 10,000 participants [2.2909783327197393]
英国在住の一般住民10,129名のデータを横断的に分析した。
参加者は、ウェアラブル(Fitbit)データと、うつ病(PHQ-8)、不安(GAD-7)、ムードに関する自己申告アンケートを、研究アプリを通じて共有した。
気分,年齢,性別,BMI,睡眠パターン,身体活動,心拍数など,うつ病の重症度と不安度との間に有意な関連が認められた。
論文 参考訳(メタデータ) (2024-09-24T16:05:17Z) - Contrastive Learning with Negative Sampling Correction [52.990001829393506]
PUCL(Positive-Unlabeled Contrastive Learning)という新しいコントラスト学習手法を提案する。
PUCLは生成した負のサンプルをラベルのないサンプルとして扱い、正のサンプルからの情報を用いて、対照的な損失のバイアスを補正する。
PUCLは一般的なコントラスト学習問題に適用でき、様々な画像やグラフの分類タスクにおいて最先端の手法より優れている。
論文 参考訳(メタデータ) (2024-01-13T11:18:18Z) - Signal Is Harder To Learn Than Bias: Debiasing with Focal Loss [10.031357641396616]
ニューラルネットワークは、不必要な関連性(バイアスとしても知られる)を学ぶことで悪名高い。
本稿では、偏りと偏りのない分類器を同時に訓練する変分自動符号化方式であるSignal is Harderを提案する。
本稿では,実践者が刺激的な相関関係の源泉を知るのに役立つバイアスを可視化するために,潜伏空間における摂動スキームを提案する。
論文 参考訳(メタデータ) (2023-05-31T09:09:59Z) - Race Bias Analysis of Bona Fide Errors in face anti-spoofing [0.0]
本稿では,3つの重要な特徴を持つ反スプーフに面した人種偏見の系統的研究について述べる。
焦点は、重大な倫理的および法的問題があるボナフェイドエラーの潜在的なバイアスを分析することにある。
本稿では,VQ-VAEに基づくフェース・アンチ・スプーフィング・アルゴリズムのバイアス解析プロセスについて述べる。
論文 参考訳(メタデータ) (2022-10-11T11:49:24Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Toward Understanding Bias Correlations for Mitigation in NLP [34.956581421295]
この研究は、緩和におけるバイアスの相関を理解するための最初の体系的な研究を提供することを目的としている。
我々は2つの共通NLPタスク(毒性検出と単語埋め込み)におけるバイアス緩和について検討する。
以上の結果から, 偏見は相関し, 独立性脱バイアスアプローチが不十分な現状が示唆された。
論文 参考訳(メタデータ) (2022-05-24T22:48:47Z) - Neural Contrastive Clustering: Fully Unsupervised Bias Reduction for
Sentiment Classification [0.0]
感情分類における相関バイアスは、しばしば議論の的になっているトピックに関する会話で生じる。
本研究では、感情分類ラベルに基づくクラスタを、教師なしトピックモデリングによって生成されたクラスタと対比するために、逆学習を用いる。
これにより、ニューラルネットワークは、バイアス付き分類結果を生成するトピック関連の特徴を学習するのを妨げる。
論文 参考訳(メタデータ) (2022-04-22T02:34:41Z) - Balancing out Bias: Achieving Fairness Through Training Reweighting [58.201275105195485]
自然言語処理におけるバイアスは、性別や人種などの著者の特徴を学習するモデルから生じる。
既存のバイアスの緩和と測定方法は、著者の人口統計学と言語変数の相関を直接考慮していない。
本稿では,インスタンス再重み付けを用いたバイアス対策法を提案する。
論文 参考訳(メタデータ) (2021-09-16T23:40:28Z) - Bootstrapping Your Own Positive Sample: Contrastive Learning With
Electronic Health Record Data [62.29031007761901]
本稿では,新しいコントラスト型正規化臨床分類モデルを提案する。
EHRデータに特化した2つのユニークなポジティブサンプリング戦略を紹介します。
私たちのフレームワークは、現実世界のCOVID-19 EHRデータの死亡リスクを予測するために、競争の激しい実験結果をもたらします。
論文 参考訳(メタデータ) (2021-04-07T06:02:04Z) - Correct block-design experiments mitigate temporal correlation bias in
EEG classification [68.85562949901077]
[1]の主主張は極めて過大評価されており、他の分析は間違った方法論的選択によって深刻な欠陥を負っていることを示す。
脳波の時間相関が2つの実験環境で同じモデルをテストすることによって分類精度に及ぼす影響について検討した。
論文 参考訳(メタデータ) (2020-11-25T22:25:21Z) - Towards Controllable Biases in Language Generation [87.89632038677912]
本研究では、特定の人口集団の言及を含む入力プロンプトによって生成されたテキストの社会的バイアスを誘導する手法を開発した。
1 つの人口統計学において負のバイアスを誘発し、もう1 つの人口統計学において正のバイアスを誘導し、2 つのシナリオを分析する。
論文 参考訳(メタデータ) (2020-05-01T08:25:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。