論文の概要: Toward Annotator Group Bias in Crowdsourcing
- arxiv url: http://arxiv.org/abs/2110.08038v1
- Date: Fri, 8 Oct 2021 05:54:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-24 04:31:51.422528
- Title: Toward Annotator Group Bias in Crowdsourcing
- Title(参考訳): クラウドソーシングにおけるアノテーショングループバイアス
- Authors: Haochen Liu, Joseph Thekinen, Sinem Mollaoglu, Da Tang, Ji Yang,
Youlong Cheng, Hui Liu, Jiliang Tang
- Abstract要約: また,同集団内のアノテータは,アノテーションタスクにおいて一貫したグループバイアスを呈する傾向にあることを示した。
我々は、新しい拡張期待最大化(EM)トレーニングアルゴリズムを用いて、アノテータ群バイアスを捕捉する新しい確率的グラフィカルフレームワークGroupAnnoを開発した。
- 参考スコア(独自算出の注目度): 26.754873038110595
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Crowdsourcing has emerged as a popular approach for collecting annotated data
to train supervised machine learning models. However, annotator bias can lead
to defective annotations. Though there are a few works investigating individual
annotator bias, the group effects in annotators are largely overlooked. In this
work, we reveal that annotators within the same demographic group tend to show
consistent group bias in annotation tasks and thus we conduct an initial study
on annotator group bias. We first empirically verify the existence of annotator
group bias in various real-world crowdsourcing datasets. Then, we develop a
novel probabilistic graphical framework GroupAnno to capture annotator group
bias with a new extended Expectation Maximization (EM) training algorithm. We
conduct experiments on both synthetic and real-world datasets. Experimental
results demonstrate the effectiveness of our model in modeling annotator group
bias in label aggregation and model learning over competitive baselines.
- Abstract(参考訳): クラウドソーシングは、教師付き機械学習モデルをトレーニングするために注釈データを集める一般的なアプローチとして登場した。
しかし、アノテーションのバイアスはアノテーションの欠陥につながる可能性がある。
個々のアノテータのバイアスを調査するいくつかの研究があるが、アノテータの集団効果はほとんど見過ごされている。
本研究では,同階層群内のアノテータがアノテーションタスクにおいて一貫したグループバイアスを示す傾向にあり,アノテータ群バイアスに関する最初の研究を行う。
まず,様々な実世界のクラウドソーシングデータセットにおける注釈群バイアスの存在を実証的に検証した。
次に,新しい拡張期待最大化(em)学習アルゴリズムを用いて,注釈群バイアスを捉える新しい確率的グラフィカルフレームワークgroupannoを開発した。
合成データセットと実世界のデータセットの両方で実験を行う。
実験結果は,競合ベースラインに対するラベルアグリゲーションとモデル学習におけるアノテーション群バイアスのモデル化におけるモデルの有効性を示す。
関連論文リスト
- Improving Bias Mitigation through Bias Experts in Natural Language
Understanding [10.363406065066538]
補助モデルと主モデルの間に二項分類器を導入するデバイアス化フレームワークを提案する。
提案手法は補助モデルのバイアス識別能力を向上させる。
論文 参考訳(メタデータ) (2023-12-06T16:15:00Z) - IBADR: an Iterative Bias-Aware Dataset Refinement Framework for
Debiasing NLU models [52.03761198830643]
IBADR(Iterative Bias-Aware dataset Refinement framework)を提案する。
まず、プール内のサンプルのバイアス度を定量化するために浅いモデルを訓練する。
次に、各サンプルにバイアス度を表すバイアス指標をペアにして、これらの拡張サンプルを使用してサンプルジェネレータを訓練する。
このようにして、このジェネレータは、バイアスインジケータとサンプルの対応関係を効果的に学習することができる。
論文 参考訳(メタデータ) (2023-11-01T04:50:38Z) - Bias Propagation in Federated Learning [22.954608704251118]
少数政党の少数派に対する偏見がネットワークを通じてネットワーク内のすべての当事者に伝播することを示す。
自然に分割された実世界のデータセット上でのフェデレーション学習におけるバイアス伝搬の分析と説明を行う。
論文 参考訳(メタデータ) (2023-09-05T11:55:03Z) - Echoes: Unsupervised Debiasing via Pseudo-bias Labeling in an Echo
Chamber [17.034228910493056]
本稿では,既存のバイアスモデルがトレーニングデータにおけるバイアス強調サンプルに過度に適合していることを明らかにする実験的検討を行った。
本研究では、バイアスモデルとターゲットモデルを異なる戦略で訓練するEchoesという、単純で効果的な手法を提案する。
提案手法は,既存の合成データセットと実世界のデータセットのベースラインと比較して,優れたデバイアス化結果が得られる。
論文 参考訳(メタデータ) (2023-05-06T13:13:18Z) - Debiasing Vision-Language Models via Biased Prompts [79.04467131711775]
本稿では,テキスト埋め込みにおけるバイアスのある方向を投影することで,視覚言語基盤モデルを疎外する一般的な手法を提案する。
偏平投影行列を組み込んだテキストのみをデバイアスすることで、ロバストな分類器と公正な生成モデルが得られることを示す。
論文 参考訳(メタデータ) (2023-01-31T20:09:33Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - General Greedy De-bias Learning [163.65789778416172]
本稿では,関数空間における勾配降下のような偏りのあるモデルとベースモデルを優雅に訓練する一般グリーディ・デバイアス学習フレームワーク(GGD)を提案する。
GGDは、事前知識を持つタスク固有バイアスモデルと、事前知識を持たない自己アンサンブルバイアスモデルの両方の設定の下で、より堅牢なベースモデルを学ぶことができる。
論文 参考訳(メタデータ) (2021-12-20T14:47:32Z) - Learning Debiased Models with Dynamic Gradient Alignment and
Bias-conflicting Sample Mining [39.00256193731365]
ディープニューラルネットワークは、堅牢性、一般化、公正性をモデル化するのに有害なデータセットバイアスに悩まされている。
難解な未知のバイアスと戦うための2段階のデバイアス方式を提案する。
論文 参考訳(メタデータ) (2021-11-25T14:50:10Z) - Improving Robustness by Augmenting Training Sentences with
Predicate-Argument Structures [62.562760228942054]
データセットバイアスに対するロバスト性を改善する既存のアプローチは、主にトレーニング目標の変更に焦点を当てている。
本稿では,学習データ中の入力文に対応する述語句構造を付加することを提案する。
特定のバイアスを対象とせずに、文の増大は、複数のバイアスに対してトランスフォーマーモデルの堅牢性を向上することを示す。
論文 参考訳(メタデータ) (2020-10-23T16:22:05Z) - LOGAN: Local Group Bias Detection by Clustering [86.38331353310114]
コーパスレベルでバイアスを評価することは、モデルにバイアスがどのように埋め込まれているかを理解するのに十分ではない、と我々は主張する。
クラスタリングに基づく新しいバイアス検出手法であるLOGANを提案する。
毒性分類および対象分類タスクの実験は、LOGANが局所領域のバイアスを特定することを示している。
論文 参考訳(メタデータ) (2020-10-06T16:42:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。