論文の概要: Transfer Learning via Lexical Relatedness: A Sarcasm and Hate Speech Case Study
- arxiv url: http://arxiv.org/abs/2508.16555v1
- Date: Fri, 22 Aug 2025 17:23:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-25 16:42:36.473794
- Title: Transfer Learning via Lexical Relatedness: A Sarcasm and Hate Speech Case Study
- Title(参考訳): 語彙的関連性による伝達学習:サルカズムとヘイトスピーチのケーススタディ
- Authors: Angelly Cabrera, Linus Lei, Antonio Ortega,
- Abstract要約: 本研究は,サルカズムを事前学習段階に統合することで,暗黙のヘイトスピーチの検出が向上するかどうかを考察する。
CNN+LSTMとBERT+BiLSTMモデルを用いて,サルカズム事前トレーニングの有効性を比較するための2つのトレーニング戦略を考案した。
以上の結果より,Sarcasm pre-trainingによりBERT+BiLSTMのリコールは9.7%,AUCは7.8%,F1スコアは6%改善した。
- 参考スコア(独自算出の注目度): 19.51996697564557
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Detecting hate speech in non-direct forms, such as irony, sarcasm, and innuendos, remains a persistent challenge for social networks. Although sarcasm and hate speech are regarded as distinct expressions, our work explores whether integrating sarcasm as a pre-training step improves implicit hate speech detection and, by extension, explicit hate speech detection. Incorporating samples from ETHOS, Sarcasm on Reddit, and Implicit Hate Corpus, we devised two training strategies to compare the effectiveness of sarcasm pre-training on a CNN+LSTM and BERT+BiLSTM model. The first strategy is a single-step training approach, where a model trained only on sarcasm is then tested on hate speech. The second strategy uses sequential transfer learning to fine-tune models for sarcasm, implicit hate, and explicit hate. Our results show that sarcasm pre-training improved the BERT+BiLSTM's recall by 9.7%, AUC by 7.8%, and F1-score by 6% on ETHOS. On the Implicit Hate Corpus, precision increased by 7.8% when tested only on implicit samples. By incorporating sarcasm into the training process, we show that models can more effectively detect both implicit and explicit hate.
- Abstract(参考訳): 皮肉、皮肉、侮辱といった非間接的な形でヘイトスピーチを検出することは、ソーシャルネットワークにとって永続的な課題である。
サルカズムとヘイトスピーチは別個に表現されるが,本研究は,サルカズムを事前学習段階に統合することで暗黙のヘイトスピーチの検出が向上し,拡張によって明示的なヘイトスピーチ検出が向上するかどうかを考察する。
ETHOS, Sarcasm on Reddit, Implicit Hate Corpus のサンプルを組み込んで, CNN+LSTM とBERT+BiLSTM モデルによるサルカズム事前トレーニングの有効性を比較するための2つのトレーニング戦略を考案した。
最初の戦略はシングルステップのトレーニングアプローチであり、サルカズムでのみトレーニングされたモデルがヘイトスピーチでテストされる。
第2の戦略は、シーケンシャルトランスファーラーニングを使用して、皮肉、暗黙の憎しみ、明示的な憎しみのモデルを微調整する。
以上の結果より,Sarcasm pre-trainingによりBERT+BiLSTMのリコールは9.7%,AUCは7.8%,F1スコアは6%改善した。
Implicit Hate Corpusでは、暗黙のサンプルでのみテストすると精度が7.8%向上した。
サルカズムをトレーニングプロセスに組み込むことで、モデルが暗黙的かつ明示的な憎悪の両方をより効果的に検出できることが示される。
関連論文リスト
- Integrating Feedback Loss from Bi-modal Sarcasm Detector for Sarcastic Speech Synthesis [14.798970809585066]
サーカシック音声合成は、エンターテイメントや人間とコンピュータの相互作用のような応用における自然な相互作用を強化するために不可欠である。
本研究では,2モーダルサルカズム検出モデルからのフィードバック損失をTSトレーニングプロセスに統合する手法を提案する。
論文 参考訳(メタデータ) (2025-08-18T15:44:54Z) - Sarc7: Evaluating Sarcasm Detection and Generation with Seven Types and Emotion-Informed Techniques [4.699432725785436]
サルカズム (Sarcasm) はユーモアの一種で、表現は文字通りの解釈とは反対の意味を伝達する。
Sarc7は、7種類のサルカズムを分類するベンチマークである。
本研究では,サルカズム不整合,ショック値,コンテキスト依存性の重要成分を同定し,感情に基づく生成手法を提案する。
論文 参考訳(メタデータ) (2025-05-31T18:01:23Z) - Sentiment-enhanced Graph-based Sarcasm Explanation in Dialogue [63.32199372362483]
本稿では,SEntiment-enhanceD Graph を用いたマルチモーダルサルカズム記述フレームワーク EDGE を提案する。
特に,まずレキシコン誘導型発話感情推論モジュールを提案し,そこでは発話感情改善戦略を考案する。
次に,マルチモーダル感情分析モデル JCA を拡張し,映像音声クリップ毎に共同感情ラベルを導出することにより,JCA-SI (Joint Cross Attention-based Sentiment Inference) というモジュールを開発する。
論文 参考訳(メタデータ) (2024-02-06T03:14:46Z) - Prosody in Cascade and Direct Speech-to-Text Translation: a case study
on Korean Wh-Phrases [79.07111754406841]
本研究は,韻律が重要な役割を果たす発話を明瞭にするための直接S2TTシステムの能力を評価するために,コントラスト評価を用いることを提案する。
本結果は,カスケード翻訳モデルよりも直接翻訳システムの価値を明確に示すものである。
論文 参考訳(メタデータ) (2024-02-01T14:46:35Z) - CoSyn: Detecting Implicit Hate Speech in Online Conversations Using a
Context Synergized Hyperbolic Network [52.85130555886915]
CoSynは、オンライン会話における暗黙のヘイトスピーチを検出するために、ユーザと会話のコンテキストを明示的に組み込んだ、コンテキスト中心のニューラルネットワークである。
我々は、CoSynが、1.24%から57.8%の範囲で絶対的に改善された暗黙のヘイトスピーチを検出することで、我々のベースラインを全て上回っていることを示す。
論文 参考訳(メタデータ) (2023-03-02T17:30:43Z) - Sarcasm Detection Framework Using Emotion and Sentiment Features [62.997667081978825]
本研究では,感情と感情の特徴を取り入れたモデルを提案する。
我々のアプローチは、ソーシャルネットワークプラットフォームとオンラインメディアの4つのデータセットに対して、最先端の結果を得た。
論文 参考訳(メタデータ) (2022-11-23T15:14:44Z) - Addressing the Challenges of Cross-Lingual Hate Speech Detection [115.1352779982269]
本稿では,低リソース言語におけるヘイトスピーチ検出を支援するために,言語間移動学習に着目した。
言語間単語の埋め込みを利用して、ソース言語上でニューラルネットワークシステムをトレーニングし、ターゲット言語に適用します。
本研究では,ヘイトスピーチデータセットのラベル不均衡の問題について検討する。なぜなら,ヘイトサンプルと比較して非ヘイトサンプルの比率が高いことがモデル性能の低下につながることが多いからだ。
論文 参考訳(メタデータ) (2022-01-15T20:48:14Z) - Parallel Deep Learning-Driven Sarcasm Detection from Pop Culture Text
and English Humor Literature [0.76146285961466]
ベンチマークポップカルチャー Sarcasm corpus のサーカシックな単語分布特徴を手作業で抽出する。
このような単語から重み付きベクトルからなる入力シーケンスを生成する。
提案するサルカズム検出モデルは,提案したデータセットを用いてトレーニングした場合,98.95%のトレーニング精度をピークとする。
論文 参考訳(メタデータ) (2021-06-10T14:01:07Z) - Sarcasm Detection using Context Separators in Online Discourse [3.655021726150369]
サルカズム(Sarcasm)は、意味が暗黙的に伝えられる複雑な形態の言語である。
本研究では,RoBERTa_largeを用いて2つのデータセットの皮肉を検出する。
また,文脈単語埋め込みモデルの性能向上における文脈の重要性を主張する。
論文 参考訳(メタデータ) (2020-06-01T10:52:35Z) - $R^3$: Reverse, Retrieve, and Rank for Sarcasm Generation with
Commonsense Knowledge [51.70688120849654]
非皮肉な入力文に基づくサルカズム生成のための教師なしアプローチを提案する。
本手法では,サルカズムの2つの主要な特徴をインスタンス化するために,検索・編集の枠組みを用いる。
論文 参考訳(メタデータ) (2020-04-28T02:30:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。