論文の概要: AIWizards at MULTIPRIDE: A Hierarchical Approach to Slur Reclamation Detection
- arxiv url: http://arxiv.org/abs/2602.12818v1
- Date: Fri, 13 Feb 2026 11:01:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-16 23:37:53.927091
- Title: AIWizards at MULTIPRIDE: A Hierarchical Approach to Slur Reclamation Detection
- Title(参考訳): MultiPRIDEにおけるAIWizard:スラリー埋立地検出のための階層的アプローチ
- Authors: Luca Tedeschini, Matteo Fasulo,
- Abstract要約: 本稿では,スラリー埋立過程をモデル化するための階層的アプローチを提案する。
私たちの中核的な仮定は、LGBTQ+コミュニティのメンバーは、特定のスラリーをエキュラティブな方法で採用する傾向にある、ということです。
イタリアとスペインの実験結果から,本手法は強いBERTベースラインと統計的に比較できることが示された。
- 参考スコア(独自算出の注目度): 0.42970700836450487
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Detecting reclaimed slurs represents a fundamental challenge for hate speech detection systems, as the same lexcal items can function either as abusive expressions or as in-group affirmations depending on social identity and context. In this work, we address Subtask B of the MultiPRIDE shared task at EVALITA 2026 by proposing a hierarchical approach to modeling the slur reclamation process. Our core assumption is that members of the LGBTQ+ community are more likely, on average, to employ certain slurs in a eclamatory manner. Based on this hypothesis, we decompose the task into two stages. First, using a weakly supervised LLM-based annotation, we assign fuzzy labels to users indicating the likelihood of belonging to the LGBTQ+ community, inferred from the tweet and the user bio. These soft labels are then used to train a BERT-like model to predict community membership, encouraging the model to learn latent representations associated with LGBTQ+ identity. In the second stage, we integrate this latent space with a newly initialized model for the downstream slur reclamation detection task. The intuition is that the first model encodes user-oriented sociolinguistic signals, which are then fused with representations learned by a model pretrained for hate speech detection. Experimental results on Italian and Spanish show that our approach achieves performance statistically comparable to a strong BERT-based baseline, while providing a modular and extensible framework for incorporating sociolinguistic context into hate speech modeling. We argue that more fine-grained hierarchical modeling of user identity and discourse context may further improve the detection of reclaimed language. We release our code at https://github.com/LucaTedeschini/multipride.
- Abstract(参考訳): 再生スラリーの検出は、ヘイトスピーチ検出システムにとって基本的な課題であり、同じレックスカルアイテムは、虐待的な表現として、あるいは社会的アイデンティティや文脈に応じてグループ内の肯定として機能する。
本研究では,EVALITA 2026 における MultiPRIDE 共有タスクの Subtask B について,スラリー埋立プロセスのモデル化における階層的アプローチを提案する。
私たちの中核的な仮定は、LGBTQ+コミュニティのメンバーは、平均的に、特定のスラリーを累積的に採用する可能性が高い、ということです。
この仮説に基づき、タスクを2つの段階に分解する。
まず、弱教師付きLDMアノテーションを用いて、ツイートとユーザバイオから推定されたLGBTQ+コミュニティに属する可能性を示すユーザに対してファジィラベルを割り当てる。
これらのソフトラベルは、コミュニティメンバーシップを予測するためにBERTライクなモデルをトレーニングするために使用され、LGBTQ+アイデンティティに関連する潜在表現を学習するよう促される。
第2段階では、この潜伏空間を下流スラリー埋立検出タスクの新たな初期化モデルと統合する。
直感的には、最初のモデルは、ユーザ指向の社会言語信号を符号化し、ヘイトスピーチ検出のために事前訓練されたモデルによって学習された表現と融合する。
イタリア語とスペイン語による実験結果から,我々の手法は強いBERTベースのベースラインと統計的に比較できることを示すとともに,社会言語学的文脈をヘイトスピーチモデリングに組み込むためのモジュラーで拡張可能なフレームワークを提供する。
ユーザアイデンティティと談話コンテキストのよりきめ細かな階層的モデリングは、再利用言語の検出をさらに改善する可能性がある。
コードについてはhttps://github.com/LucaTedeschini/multipride.comで公開しています。
関連論文リスト
- SLAyiNG: Towards Queer Language Processing [44.4984082814346]
SLAyiNGは、字幕、ソーシャルメディア投稿、ポッドキャストから派生した注釈付きキースラングを含む最初のデータセットである。
本稿では,スラング用語と定義の収集を含むデータキュレーションプロセスについて述べる。
予備的な結果として,人間のアノテータとOpenAIのモデルo3-miniのアノテータ間合意を計算する。
論文 参考訳(メタデータ) (2025-09-22T07:41:45Z) - A Unified Multi-Task Learning Architecture for Hate Detection Leveraging User-Based Information [23.017068553977982]
ヘイトスピーチ、攻撃的言語、攻撃性、人種差別、性差別、その他の虐待的言語は、ソーシャルメディアでよく見られる現象である。
ヘイトコンテンツを大規模にフィルタリングする人工知能(AI)ベースの介入が必要である。
本稿では,ユーザ内およびユーザ間情報を活用することで,英語のヘイトスピーチ識別を改善するユニークなモデルを提案する。
論文 参考訳(メタデータ) (2024-11-11T10:37:11Z) - HyPoradise: An Open Baseline for Generative Speech Recognition with
Large Language Models [81.56455625624041]
ASRの誤り訂正に外部の大規模言語モデル(LLM)を利用する最初のオープンソースベンチマークを導入する。
提案したベンチマークには、334,000組以上のN-best仮説を含む新しいデータセットHyPoradise (HP)が含まれている。
合理的なプロンプトと生成能力を持つLLMは、N-bestリストに欠けているトークンを修正できる。
論文 参考訳(メタデータ) (2023-09-27T14:44:10Z) - Masked Part-Of-Speech Model: Does Modeling Long Context Help
Unsupervised POS-tagging? [94.68962249604749]
フレキシブルな依存性モデリングを容易にするために,MPoSM(Masked Part-of-Speech Model)を提案する。
MPoSMは任意のタグ依存をモデル化し、マスクされたPOS再構成の目的を通じてPOS誘導を行うことができる。
英語のPenn WSJデータセットと10の多様な言語を含むユニバーサルツリーバンクの競合的な結果を得た。
論文 参考訳(メタデータ) (2022-06-30T01:43:05Z) - Rethinking the Two-Stage Framework for Grounded Situation Recognition [61.93345308377144]
接地状況認識は「人間のような」事象理解に向けた重要なステップである。
既存のGSR手法では、第1段階で動詞を予測し、第2段階での意味的役割を検出するという、2段階の枠組みを採用している。
本稿では,CFVM (Coarse-to-Fine Verb Model) と Transformer-based Noun Model (TNM) で構成される新しいGSR用SituFormerを提案する。
論文 参考訳(メタデータ) (2021-12-10T08:10:56Z) - Contextual Multi-View Query Learning for Short Text Classification in
User-Generated Data [6.052423212814052]
COCOBAは2つのビューを構築するためにユーザ投稿のコンテキストを利用する。
次に、各ビューにおける表現の分布を使用して、反対のクラスに割り当てられた領域を検出する。
我々のモデルは、通常ノイズの多いユーザ投稿の言語に対処するために、クエリ・バイ・コミッテ・モデルも採用しています。
論文 参考訳(メタデータ) (2021-12-05T16:17:21Z) - Offensive Language and Hate Speech Detection with Deep Learning and
Transfer Learning [1.77356577919977]
我々は、ツイートを自動的に3つのクラスに分類するアプローチを提案する。
我々は、テキスト分類、感情チェック、テキストデータ拡張を含む主要な機能を含むクラスモジュールを作成する。
論文 参考訳(メタデータ) (2021-08-06T20:59:47Z) - Read Like Humans: Autonomous, Bidirectional and Iterative Language
Modeling for Scene Text Recognition [80.446770909975]
言語知識はシーンのテキスト認識に非常に有益である。
エンドツーエンドのディープネットワークで言語規則を効果的にモデル化する方法はまだ研究の課題です。
シーンテキスト認識のための自律的双方向反復型ABINetを提案する。
論文 参考訳(メタデータ) (2021-03-11T06:47:45Z) - Constructing interval variables via faceted Rasch measurement and
multitask deep learning: a hate speech application [63.10266319378212]
本稿では,教師付き深層学習と多面的ラッシュアイテム応答理論(IRT)構築手法を組み合わせることで,連続区間スペクトル上の複素変数を測定する手法を提案する。
われわれは、YouTube、Twitter、Redditから5万件のソーシャルメディアコメントを収集し、1万1000人の米国拠点のAmazon Mechanical Turkの労働者によってラベル付けされたデータセット上で、この新しい手法を実証した。
論文 参考訳(メタデータ) (2020-09-22T02:15:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。