論文の概要: BiaSWE: An Expert Annotated Dataset for Misogyny Detection in Swedish
- arxiv url: http://arxiv.org/abs/2502.07637v1
- Date: Tue, 11 Feb 2025 15:25:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-12 14:08:07.813879
- Title: BiaSWE: An Expert Annotated Dataset for Misogyny Detection in Swedish
- Title(参考訳): BiaSWE:スウェーデンにおけるミソジニー検出のためのエキスパートアノテーションデータセット
- Authors: Kätriin Kukk, Danila Petrelli, Judit Casademont, Eric J. W. Orlowski, Michał Dzieliński, Maria Jacobson,
- Abstract要約: BiaSWEは、スウェーデン語の誤検出用に設計された、専門家による注釈付きデータセットである。
私たちの学際チームは、ドメイン知識と言語知識の両方を取り入れた厳密なアノテーションプロセスを開発しました。
データセットとアノテーションガイドラインは、さらなる研究のために公開されている。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: In this study, we introduce the process for creating BiaSWE, an expert-annotated dataset tailored for misogyny detection in the Swedish language. To address the cultural and linguistic specificity of misogyny in Swedish, we collaborated with experts from the social sciences and humanities. Our interdisciplinary team developed a rigorous annotation process, incorporating both domain knowledge and language expertise, to capture the nuances of misogyny in a Swedish context. This methodology ensures that the dataset is not only culturally relevant but also aligned with broader efforts in bias detection for low-resource languages. The dataset, along with the annotation guidelines, is publicly available for further research.
- Abstract(参考訳): 本研究では,スウェーデン語における誤検出に適したエキスパートアノテーション付きデータセットであるBiaSWEの作成プロセスを紹介する。
スウェーデンのミソジニーの文化的・言語的特異性に対処するため、我々は社会科学や人文科学の専門家と協力した。
私たちの学際チームは、スウェーデンの文脈で誤用のニュアンスを捉えるために、ドメイン知識と言語知識の両方を取り入れた厳密なアノテーションプロセスを開発しました。
この方法論は、データセットが文化的に関連があるだけでなく、低リソース言語に対するバイアス検出の幅広い取り組みと一致していることを保証する。
データセットとアノテーションガイドラインは、さらなる研究のために公開されている。
関連論文リスト
- The Lou Dataset -- Exploring the Impact of Gender-Fair Language in German Text Classification [57.06913662622832]
ジェンダーフェア言語は、すべての性別に対処したり、中立形を使用することによって包摂性を促進する。
ジェンダーフェア言語はラベルを反転させ、確実性を減らし、注意パターンを変化させることで予測に大きな影響を及ぼす。
ドイツ語のテキスト分類への影響について最初の知見を提供する一方で、他の言語にもその知見が当てはまる可能性が高い。
論文 参考訳(メタデータ) (2024-09-26T15:08:17Z) - Beyond Binary Gender: Evaluating Gender-Inclusive Machine Translation with Ambiguous Attitude Words [85.48043537327258]
既存の機械翻訳の性別バイアス評価は主に男性と女性の性別に焦点を当てている。
本研究では,AmbGIMT (Gender-Inclusive Machine Translation with Ambiguous attitude words) のベンチマークを示す。
本研究では,感情的態度スコア(EAS)に基づく性別バイアス評価手法を提案する。
論文 参考訳(メタデータ) (2024-07-23T08:13:51Z) - A multitask learning framework for leveraging subjectivity of annotators to identify misogyny [47.175010006458436]
本研究では,誤識別システムの性能向上を目的としたマルチタスク学習手法を提案する。
6つのプロファイルグループにまたがる性別と年齢を考慮したモデル設計において,アノテータからさまざまな視点を取り入れた。
本研究は、コンテンツモデレーションを推進し、効果的なオンラインモデレーションシステムを構築するための多様な視点を受け入れることの重要性を強調している。
論文 参考訳(メタデータ) (2024-06-22T15:06:08Z) - Akal Badi ya Bias: An Exploratory Study of Gender Bias in Hindi Language Technology [22.458957168929487]
ジェンダーバイアスの測定と緩和に関する既存の研究は、主に英語に焦点を当てている。
本稿では,ヒンディー語におけるジェンダーバイアスの微妙な風景を掘り下げる最初の総合的研究について述べる。
論文 参考訳(メタデータ) (2024-05-10T09:26:12Z) - Massively Multi-Cultural Knowledge Acquisition & LM Benchmarking [48.21982147529661]
本稿では,多文化知識獲得のための新しいアプローチを提案する。
本手法は,文化トピックに関するウィキペディア文書からリンクページの広範囲なネットワークへ戦略的にナビゲートする。
私たちの仕事は、AIにおける文化的格差のギャップを深く理解し、橋渡しするための重要なステップです。
論文 参考訳(メタデータ) (2024-02-14T18:16:54Z) - Subtle Misogyny Detection and Mitigation: An Expert-Annotated Dataset [5.528106559459623]
Biaslyデータセットは、複数の専門分野の専門家やアノテータとのコラボレーションによって構築されている。
データセットは、分類、重度スコアの回帰、書き直しのためのテキスト生成など、さまざまなNLPタスクに使用することができる。
論文 参考訳(メタデータ) (2023-11-15T23:27:19Z) - SexWEs: Domain-Aware Word Embeddings via Cross-lingual Semantic
Specialisation for Chinese Sexism Detection in Social Media [23.246615034191553]
性差別検出のための言語間ドメイン認識セマンティック・スペシャライゼーション・システムを開発した。
我々は、高リソース言語(英語)からの性差別のセマンティックリソースを活用し、ターゲット言語(中国語)の事前学習された単語ベクトルを専門化し、ドメイン知識を注入する。
他の専門化アプローチや中国語のベースライン語ベクトルと比較すると,本質的評価と外生的評価の両方において,SexWEsの平均スコアは0.033と0.064である。
論文 参考訳(メタデータ) (2022-11-15T19:00:20Z) - O-Dang! The Ontology of Dangerous Speech Messages [53.15616413153125]
O-Dang!:The Ontology of Dangerous Speech Messages, a systematic and interoperable Knowledge Graph (KG)
O-Dang!は、Lingguistic Linked Open Dataコミュニティで共有されている原則に従って、イタリアのデータセットを構造化されたKGにまとめ、整理するように設計されている。
ゴールド・スタンダードとシングル・アノテータのラベルをKGにエンコードするモデルを提供する。
論文 参考訳(メタデータ) (2022-07-13T11:50:05Z) - AM2iCo: Evaluating Word Meaning in Context across Low-ResourceLanguages
with Adversarial Examples [51.048234591165155]
本稿では, AM2iCo, Adversarial and Multilingual Meaning in Contextを提案する。
言語間文脈における単語の意味の同一性を理解するために、最先端(SotA)表現モデルを忠実に評価することを目的としている。
その結果、現在のSotAプリトレーニングエンコーダは人間のパフォーマンスにかなり遅れていることが明らかとなった。
論文 参考訳(メタデータ) (2021-04-17T20:23:45Z) - Let-Mi: An Arabic Levantine Twitter Dataset for Misogynistic Language [0.0]
今回我々は,アラビア語のミソジニーのための最初のベンチマークデータセットである,ミソジニズム言語(let-mi)のためのアラビア語レバンティンtwitterデータセットを紹介する。
Let-Miは、いくつかの最先端の機械学習システムによるバイナリ/マルチ/ターゲット分類タスクによる評価データセットとして使用されました。
論文 参考訳(メタデータ) (2021-03-18T12:01:13Z) - Mitigating Gender Bias in Machine Learning Data Sets [5.075506385456811]
ジェンダーバイアスは雇用広告や採用ツールの文脈で特定されている。
本稿では,機械学習のためのトレーニングデータにおける性別バイアスの同定のための枠組みを提案する。
論文 参考訳(メタデータ) (2020-05-14T12:06:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。