論文の概要: Beyond the Explicit: A Bilingual Dataset for Dehumanization Detection in Social Media
- arxiv url: http://arxiv.org/abs/2510.18582v1
- Date: Tue, 21 Oct 2025 12:35:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:13.523397
- Title: Beyond the Explicit: A Bilingual Dataset for Dehumanization Detection in Social Media
- Title(参考訳): 明示を超えて:ソーシャルメディアにおける非人間化検出のためのバイリンガルデータセット
- Authors: Dennis Assenmacher, Paloma Piot, Katarina Laken, David Jurgens, Claudia Wagner,
- Abstract要約: デジタル非人間化は、計算言語学の分野で見過ごされている。
ドキュメントとスパンレベルで16,000のインスタンスをアノテートするために、クラウドワーカーと専門家を使用しています。
このデータセットは、機械学習モデルのトレーニングリソースと、将来の非人間化検出技術を評価するためのベンチマークの両方を提供する。
- 参考スコア(独自算出の注目度): 20.77346492661571
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Digital dehumanization, although a critical issue, remains largely overlooked within the field of computational linguistics and Natural Language Processing. The prevailing approach in current research concentrating primarily on a single aspect of dehumanization that identifies overtly negative statements as its core marker. This focus, while crucial for understanding harmful online communications, inadequately addresses the broader spectrum of dehumanization. Specifically, it overlooks the subtler forms of dehumanization that, despite not being overtly offensive, still perpetuate harmful biases against marginalized groups in online interactions. These subtler forms can insidiously reinforce negative stereotypes and biases without explicit offensiveness, making them harder to detect yet equally damaging. Recognizing this gap, we use different sampling methods to collect a theory-informed bilingual dataset from Twitter and Reddit. Using crowdworkers and experts to annotate 16,000 instances on a document- and span-level, we show that our dataset covers the different dimensions of dehumanization. This dataset serves as both a training resource for machine learning models and a benchmark for evaluating future dehumanization detection techniques. To demonstrate its effectiveness, we fine-tune ML models on this dataset, achieving performance that surpasses state-of-the-art models in zero and few-shot in-context settings.
- Abstract(参考訳): デジタル非人間化は重要な問題であるが、計算言語学や自然言語処理の分野では見過ごされている。
現在の研究における一般的なアプローチは、主に過度に否定的な言明をその中核マーカーとして識別する非人間化の単一側面に焦点を当てている。
この焦点は、有害なオンラインコミュニケーションを理解するために不可欠であるが、より広範な非人間化のスペクトルに不適切に対応している。
具体的には、過度に攻撃的でないにもかかわらず、オンラインインタラクションにおいて、疎外されたグループに対して有害なバイアスが持続する、微妙な非人間化の形式を見落としている。
これらの微妙な形態は、明白な攻撃性のない否定的なステレオタイプやバイアスを巧みに補強し、同様に損傷を検出するのが難しくなる。
このギャップを認識して、TwitterとRedditから理論インフォームドバイリンガルデータセットを収集するために、異なるサンプリング手法を用いています。
クラウドワーカーや専門家がドキュメントとスパンレベルで16,000のインスタンスに注釈を付けることで、私たちのデータセットが非人間化の異なる次元をカバーすることを示す。
このデータセットは、機械学習モデルのトレーニングリソースと、将来の非人間化検出技術を評価するためのベンチマークの両方を提供する。
その有効性を示すために、このデータセット上でMLモデルを微調整し、ゼロおよび少数ショットのインコンテキスト設定で最先端モデルを上回るパフォーマンスを達成する。
関連論文リスト
- Compositional Generalisation for Explainable Hate Speech Detection [52.41588643566991]
ヘイトスピーチ検出はオンラインコンテンツモデレーションの鍵であるが、現在のモデルはトレーニングデータ以上の一般化に苦慮している。
モデルがよりきめ細かなスパンレベルのアノテーションでトレーニングされている場合でも、それらのラベルの意味を周囲のコンテキストから切り離すことに苦労しています。
本研究では,すべての文脈で同じ頻度で表現が生じるデータセット上でのトレーニングにより,一般化が向上するかどうかを検討する。
論文 参考訳(メタデータ) (2025-06-04T13:07:36Z) - Beyond Hate Speech: NLP's Challenges and Opportunities in Uncovering Dehumanizing Language [9.06965602117689]
非人間化(De Humanization)、すなわち個人や集団に人的品質を否定することは、特に有害なヘイトスピーチである。
一般ヘイトスピーチの検出におけるNLPの進歩にもかかわらず、非人間化言語を特定するアプローチは限定的である。
我々は,非人間化検出のための4つの言語モデル(LLM)を体系的に評価した。
論文 参考訳(メタデータ) (2024-02-21T13:57:36Z) - A Dataset for the Detection of Dehumanizing Language [3.2803526084968895]
そこで本研究では,非人間化テキストの2つのデータセット,大規模な自動収集コーパス,より小さな手動注釈付きデータセットを提案する。
提案手法により,多種多様な非人間化データを扱えるようになり,さらなる探索分析と非人間化パターンの自動分類が可能となった。
論文 参考訳(メタデータ) (2024-02-13T19:58:24Z) - Developing Linguistic Patterns to Mitigate Inherent Human Bias in
Offensive Language Detection [1.6574413179773761]
本稿では,ラベル付けプロセスにおけるバイアスを低減するための言語データ拡張手法を提案する。
このアプローチは、複数の言語にわたる攻撃的な言語分類タスクを改善する可能性がある。
論文 参考訳(メタデータ) (2023-12-04T10:20:36Z) - Visual Grounding Helps Learn Word Meanings in Low-Data Regimes [47.7950860342515]
現代のニューラル言語モデル(LM)は、人間の文の生成と理解をモデル化するための強力なツールである。
しかし、これらの結果を得るためには、LMは明らかに非人間的な方法で訓練されなければならない。
より自然主義的に訓練されたモデルは、より人間らしい言語学習を示すのか?
本稿では,言語習得における重要なサブタスクである単語学習の文脈において,この問題を考察する。
論文 参考訳(メタデータ) (2023-10-20T03:33:36Z) - Chain of Hindsight Aligns Language Models with Feedback [62.68665658130472]
我々は,その極性に関係なく,任意の形式のフィードバックから学習し,最適化が容易な新しい手法であるChain of Hindsightを提案する。
我々は、あらゆる種類のフィードバックを文のシーケンスに変換し、それをモデルを微調整するために使用する。
そうすることで、モデルはフィードバックに基づいて出力を生成するように訓練され、負の属性やエラーを特定し修正する。
論文 参考訳(メタデータ) (2023-02-06T10:28:16Z) - Towards Understanding and Mitigating Social Biases in Language Models [107.82654101403264]
大規模事前訓練言語モデル(LM)は、望ましくない表現バイアスを示すのに潜在的に危険である。
テキスト生成における社会的バイアスを軽減するためのステップを提案する。
我々の経験的結果と人的評価は、重要な文脈情報を保持しながらバイアスを緩和する効果を示す。
論文 参考訳(メタデータ) (2021-06-24T17:52:43Z) - A Framework for the Computational Linguistic Analysis of Dehumanization [52.735780962665814]
我々は1986年から2015年にかけてニューヨーク・タイムズでLGBTQの人々に関する議論を分析した。
LGBTQの人々の人為的な記述は、時間とともにますます増えています。
大規模に非人間化言語を分析する能力は、メディアバイアスを自動的に検出し、理解するだけでなく、オンラインで乱用する言語にも影響を及ぼす。
論文 参考訳(メタデータ) (2020-03-06T03:02:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。