論文の概要: Same Same, But Different: Conditional Multi-Task Learning for
Demographic-Specific Toxicity Detection
- arxiv url: http://arxiv.org/abs/2302.07372v1
- Date: Tue, 14 Feb 2023 22:07:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-16 16:18:48.808511
- Title: Same Same, But Different: Conditional Multi-Task Learning for
Demographic-Specific Toxicity Detection
- Title(参考訳): 同じだが違う: 集団特異的毒性検出のための条件付きマルチタスク学習
- Authors: Soumyajit Gupta, Sooyong Lee, Maria De-Arteaga and Matthew Lease
- Abstract要約: マルチタスク学習(MTL)としてのフレーミング毒性の検出法を提案する。
CondMTLは、無関係なラベルによって汚染されない各ブランチでグループ固有の表現を学習する。
人工的および実データを用いた結果,CondMTLの使用は,概して様々なベースライン,特に少数民族集団に対する予測的リコールを改善することが示された。
- 参考スコア(独自算出の注目度): 8.307980919594689
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Algorithmic bias often arises as a result of differential subgroup validity,
in which predictive relationships vary across groups. For example, in toxic
language detection, comments targeting different demographic groups can vary
markedly across groups. In such settings, trained models can be dominated by
the relationships that best fit the majority group, leading to disparate
performance. We propose framing toxicity detection as multi-task learning
(MTL), allowing a model to specialize on the relationships that are relevant to
each demographic group while also leveraging shared properties across groups.
With toxicity detection, each task corresponds to identifying toxicity against
a particular demographic group. However, traditional MTL requires labels for
all tasks to be present for every data point. To address this, we propose
Conditional MTL (CondMTL), wherein only training examples relevant to the given
demographic group are considered by the loss function. This lets us learn group
specific representations in each branch which are not cross contaminated by
irrelevant labels. Results on synthetic and real data show that using CondMTL
improves predictive recall over various baselines in general and for the
minority demographic group in particular, while having similar overall
accuracy.
- Abstract(参考訳): アルゴリズムバイアスは、しばしばグループ間で予測関係が変化する微分部分群の有効性の結果生じる。
例えば、有害な言語検出では、異なる人口層を対象とするコメントはグループによって著しく異なる。
このような設定では、トレーニングされたモデルは、多数派に最も適した関係によって支配され、異なるパフォーマンスをもたらす。
本稿では,マルチタスク学習 (MTL) としてフレーミング毒性の検出を提案する。
毒性検出では、各タスクは特定の人口集団に対する毒性を識別する。
しかし、従来のMTLでは、すべてのタスクがすべてのデータポイントに存在するためにラベルが必要である。
そこで本研究では,与えられた人口集団に関連するトレーニング例のみを損失関数として考慮した条件付きMTL(CondMTL)を提案する。
これにより、無関係なラベルによってクロス汚染されない各ブランチでグループ固有の表現を学ぶことができる。
合成データと実データを用いた結果から,CondMTLは概して様々なベースライン,特に少数民族集団に対する予測的リコールを改善するが,全体的な精度は類似していることがわかった。
関連論文リスト
- Robustness and Confounders in the Demographic Alignment of LLMs with Human Perceptions of Offensiveness [10.194622474615462]
大規模言語モデル(LLM)は人口統計学的バイアスを示すことが知られているが、複数のデータセットにまたがってこれらのバイアスを体系的に評価する研究は少ない。
以上の結果から、人口統計学的特徴、特に人種、影響のアライメントはデータセット間で矛盾し、しばしば他の要因と絡み合っていることが明らかとなった。
論文 参考訳(メタデータ) (2024-11-13T19:08:23Z) - Estimating Structural Disparities for Face Models [54.062512989859265]
機械学習では、異なるサブ人口間でのモデルの性能や結果の差を測定することで、しばしば異質度の測定が定義される。
本研究では、人間の顔に訓練されたコンピュータビジョンモデルや、顔属性予測や影響推定などのタスクについて、そのような分析を行う。
論文 参考訳(メタデータ) (2022-04-13T05:30:53Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Towards Group Robustness in the presence of Partial Group Labels [61.33713547766866]
入力サンプルとターゲットラベルの間に 急激な相関関係がある ニューラルネットワークの予測を誤った方向に導く
本稿では,制約セットから最悪のグループ割り当てを最適化するアルゴリズムを提案する。
グループ間で総合的な集計精度を維持しつつ,少数集団のパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2022-01-10T22:04:48Z) - Examining and Combating Spurious Features under Distribution Shift [94.31956965507085]
我々は、最小限の統計量という情報理論の概念を用いて、ロバストで刺激的な表現を定義し、分析する。
入力分布のバイアスしか持たない場合でも、モデルはトレーニングデータから急激な特徴を拾い上げることができることを証明しています。
分析から着想を得た結果,グループDROは,グループ同士の相関関係を直接考慮しない場合に失敗する可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-14T05:39:09Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Recommendations for Bayesian hierarchical model specifications for
case-control studies in mental health [0.0]
研究者は、すべての被験者が共通の集団から引き出されたと仮定するか、またはそれらを別の集団から派生したものとしてモデル化するかを選択する必要がある。
一般的に使用される帯域幅タスクから合成多群行動データに対する系統シミュレーションを行った。
適合群は,全ての条件において,最も正確かつ堅牢な推論を別々に提供した。
論文 参考訳(メタデータ) (2020-11-03T14:19:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。