論文の概要: Subtle Misogyny Detection and Mitigation: An Expert-Annotated Dataset
- arxiv url: http://arxiv.org/abs/2311.09443v1
- Date: Wed, 15 Nov 2023 23:27:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-17 17:30:35.801878
- Title: Subtle Misogyny Detection and Mitigation: An Expert-Annotated Dataset
- Title(参考訳): Subtle Misogyny Detection and Mitigation: An Expert-Annotated Dataset
- Authors: Brooklyn Sheppard, Anna Richter, Allison Cohen, Elizabeth Allyn Smith,
Tamara Kneese, Carolyne Pelletier, Ioana Baldini, Yue Dong
- Abstract要約: Biaslyデータセットは、複数の専門分野の専門家やアノテータとのコラボレーションによって構築されている。
データセットは、分類、重度スコアの回帰、書き直しのためのテキスト生成など、さまざまなNLPタスクに使用することができる。
- 参考スコア(独自算出の注目度): 5.528106559459623
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Using novel approaches to dataset development, the Biasly dataset captures
the nuance and subtlety of misogyny in ways that are unique within the
literature. Built in collaboration with multi-disciplinary experts and
annotators themselves, the dataset contains annotations of movie subtitles,
capturing colloquial expressions of misogyny in North American film. The
dataset can be used for a range of NLP tasks, including classification,
severity score regression, and text generation for rewrites. In this paper, we
discuss the methodology used, analyze the annotations obtained, and provide
baselines using common NLP algorithms in the context of misogyny detection and
mitigation. We hope this work will promote AI for social good in NLP for bias
detection, explanation, and removal.
- Abstract(参考訳): Biaslyのデータセットは、データセット開発のための新しいアプローチを用いて、文献の中でユニークな方法で、誤読のニュアンスと微妙さをキャプチャする。
多分野の専門家や注釈家たちとのコラボレーションで構築されたこのデータセットには、映画サブタイトルの注釈が含まれており、北米映画におけるミソジニーの口語的表現を捉えている。
データセットは、分類、重度スコアの回帰、書き直しのためのテキスト生成など、さまざまなNLPタスクに使用することができる。
本稿では,使用する手法について検討し,得られたアノテーションを分析し,ミソジニー検出と緩和の文脈で一般的なnlpアルゴリズムを用いたベースラインを提供する。
この研究は、NLPにおけるバイアス検出、説明、削除のための社会的善のためのAIを促進することを願っている。
関連論文リスト
- MISMATCH: Fine-grained Evaluation of Machine-generated Text with
Mismatch Error Types [68.76742370525234]
テキスト間のきめ細かいミスマッチに基づいて、7つのNLPタスクにおける人間の判断をモデル化する新しい評価手法を提案する。
細粒度評価のためのNLPタスクの最近の取り組みに触発されて,13種類のミスマッチエラータイプを紹介した。
7つのNLPタスクから得られた有意なデータセットの文対間のミスマッチ誤差は,人間の評価とよく一致している。
論文 参考訳(メタデータ) (2023-06-18T01:38:53Z) - Annotation Error Detection: Analyzing the Past and Present for a More
Coherent Future [63.99570204416711]
我々は、潜在的なアノテーションの誤りを検知するための18の手法を再実装し、9つの英語データセット上で評価する。
アノテーションエラー検出タスクの新しい形式化を含む一様評価設定を定義する。
私たちはデータセットと実装を,使いやすく,オープンソースのソフトウェアパッケージとしてリリースしています。
論文 参考訳(メタデータ) (2022-06-05T22:31:45Z) - Detecting Textual Adversarial Examples Based on Distributional
Characteristics of Data Representations [11.93653349589025]
逆の例は、正しく分類された入力に小さな非ランダムな摂動を加えることで構成される。
自然言語タスクにおける敵対的攻撃へのアプローチは、文字レベル、単語レベル、フレーズレベルの摂動を用いて、過去5年間にブームとなった。
我々はこのギャップを埋めるために,NLPのための2つの新しいリアクティブ手法を提案する。
適応 LID と MDRE は、IMDB データセットに対する文字レベル、単語レベル、フレーズレベルの攻撃に対して、最先端の結果を得る。
論文 参考訳(メタデータ) (2022-04-29T02:32:02Z) - Word Embeddings via Causal Inference: Gender Bias Reducing and Semantic
Information Preserving [3.114945725130788]
本稿では、因果推論の枠組みを利用して、ジェンダーバイアスを効果的に除去する手法を提案する。
総括実験により,提案手法は男女の偏りを解消する作業において,最先端の成果を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-12-09T19:57:22Z) - Combining Feature and Instance Attribution to Detect Artifacts [62.63504976810927]
トレーニングデータアーティファクトの識別を容易にする手法を提案する。
提案手法は,トレーニングデータのアーティファクトの発見に有効であることを示す。
我々は,これらの手法が実際にNLP研究者にとって有用かどうかを評価するために,小規模なユーザスタディを実施している。
論文 参考訳(メタデータ) (2021-07-01T09:26:13Z) - A Token-level Reference-free Hallucination Detection Benchmark for
Free-form Text Generation [50.55448707570669]
本稿ではトークンレベルの参照なし幻覚検出タスクとHaDesというアノテーション付きデータセットを提案する。
このデータセットを作成するために、まず英語のウィキペディアから抽出された大量のテキストセグメントを摂り込み、それからクラウドソースアノテーションで検証する。
論文 参考訳(メタデータ) (2021-04-18T04:09:48Z) - A survey on extremism analysis using Natural Language Processing [7.885207996427683]
本調査は, 極端主義研究分野へのNLPの貢献を概観することを目的としている。
コンテンツには、頻繁に使用されるNLPテクニック、適用方法、提供された洞察の説明と比較が含まれている。
今後の動向や課題,これらのハイライトから導かれる方向性が示唆される。
論文 参考訳(メタデータ) (2021-03-28T11:05:43Z) - Let-Mi: An Arabic Levantine Twitter Dataset for Misogynistic Language [0.0]
今回我々は,アラビア語のミソジニーのための最初のベンチマークデータセットである,ミソジニズム言語(let-mi)のためのアラビア語レバンティンtwitterデータセットを紹介する。
Let-Miは、いくつかの最先端の機械学習システムによるバイナリ/マルチ/ターゲット分類タスクによる評価データセットとして使用されました。
論文 参考訳(メタデータ) (2021-03-18T12:01:13Z) - The Gap on GAP: Tackling the Problem of Differing Data Distributions in
Bias-Measuring Datasets [58.53269361115974]
バイアスモデルを検出する診断データセットは、自然言語処理におけるバイアス低減の重要な前提条件である。
収集されたデータの望ましくないパターンは、そのようなテストを誤ったものにします。
実験データにおけるそのようなパターンに対処するために, 実験サンプルを重み付けする理論的基礎的手法を提案する。
論文 参考訳(メタデータ) (2020-11-03T16:50:13Z) - Weakly-Supervised Aspect-Based Sentiment Analysis via Joint
Aspect-Sentiment Topic Embedding [71.2260967797055]
アスペクトベース感情分析のための弱教師付きアプローチを提案する。
We learn sentiment, aspects> joint topic embeddeds in the word embedding space。
次に、ニューラルネットワークを用いて単語レベルの識別情報を一般化する。
論文 参考訳(メタデータ) (2020-10-13T21:33:24Z) - Improving unsupervised neural aspect extraction for online discussions
using out-of-domain classification [11.746330029375745]
本稿では,ニュースグループに基づくコンテンツから学んだ話題的側面を改善するために,文フィルタリングに基づく簡単なアプローチを提案する。
文フィルタリングがトピックコヒーレンスに与える影響を,未フィルタリングテキスト上で訓練されたアスペクト抽出モデルと比較した。
論文 参考訳(メタデータ) (2020-06-17T10:34:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。