論文の概要: SugarTextNet: A Transformer-Based Framework for Detecting Sugar Dating-Related Content on Social Media with Context-Aware Focal Loss
- arxiv url: http://arxiv.org/abs/2511.06402v1
- Date: Sun, 09 Nov 2025 14:24:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:44.922744
- Title: SugarTextNet: A Transformer-Based Framework for Detecting Sugar Dating-Related Content on Social Media with Context-Aware Focal Loss
- Title(参考訳): SugarTextNet:コンテクストを意識したソーシャルメディア上での糖食関連コンテンツ検出のためのトランスフォーマーベースのフレームワーク
- Authors: Lionel Z. Wang, Shihan Ben, Yulu Huang, Simeng Qing,
- Abstract要約: SugarTextNetはトランスフォーマーベースのフレームワークで、ソーシャルメディア上での砂糖のデート関連投稿を識別するように設計されている。
クラス不均衡に対処し、マイノリティクラス検出を強化するために、Context-Aware Focal Lossを導入する。
我々は,SulgarTextNetを,Sina Weiboの中国のソーシャルメディア投稿3,067件の,手作業による手作業による注釈付きデータセットで評価した。
- 参考スコア(独自算出の注目度): 0.07777489763207261
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sugar dating-related content has rapidly proliferated on mainstream social media platforms, giving rise to serious societal and regulatory concerns, including commercialization of intimate relationships and the normalization of transactional relationships.~Detecting such content is highly challenging due to the prevalence of subtle euphemisms, ambiguous linguistic cues, and extreme class imbalance in real-world data.~In this work, we present SugarTextNet, a novel transformer-based framework specifically designed to identify sugar dating-related posts on social media.~SugarTextNet integrates a pretrained transformer encoder, an attention-based cue extractor, and a contextual phrase encoder to capture both salient and nuanced features in user-generated text.~To address class imbalance and enhance minority-class detection, we introduce Context-Aware Focal Loss, a tailored loss function that combines focal loss scaling with contextual weighting.~We evaluate SugarTextNet on a newly curated, manually annotated dataset of 3,067 Chinese social media posts from Sina Weibo, demonstrating that our approach substantially outperforms traditional machine learning models, deep learning baselines, and large language models across multiple metrics.~Comprehensive ablation studies confirm the indispensable role of each component.~Our findings highlight the importance of domain-specific, context-aware modeling for sensitive content detection, and provide a robust solution for content moderation in complex, real-world scenarios.
- Abstract(参考訳): シュガーデート関連コンテンツは、主流のソーシャルメディアプラットフォームで急速に普及し、親密な関係の商業化や取引関係の正規化など、深刻な社会的・規制上の懸念が生じている。
これらの内容の検出は、微妙なユーフェミズム、曖昧な言語的手がかり、および現実世界のデータにおける極端なクラス不均衡の出現により、非常に困難である。
本研究では,ソーシャルメディア上での糖関係投稿の特定を目的としたトランスフォーマーベースの新しいフレームワークSugarTextNetについて紹介する。
SugarTextNetは、事前訓練されたトランスフォーマーエンコーダ、アテンションベースのキュー抽出器、コンテキスト付きフレーズエンコーダを統合し、ユーザー生成テキストの健全な特徴とニュアンスのある特徴の両方をキャプチャする。
~クラス不均衡に対処し、マイノリティクラス検出を強化するために、焦点損失スケーリングと文脈重み付けを組み合わせた調整された損失関数であるContext-Aware Focal Lossを導入する。
我々は、Sina Weibo氏の中国のソーシャルメディア投稿3,067件を手作業で修正したデータセットでSugarTextNetを評価し、我々のアプローチが従来の機械学習モデル、ディープラーニングベースライン、および複数のメトリクスにわたる大規模言語モデルを大幅に上回っていることを実証した。
〜包括的アブレーション研究は、各成分の必要不可欠な役割を裏付けるものである。
我々の発見は、センシティブなコンテンツ検出のためのドメイン固有のコンテキスト認識モデリングの重要性を強調し、複雑な実世界のシナリオにおけるコンテンツモデレーションのための堅牢なソリューションを提供する。
関連論文リスト
- Maintaining Informative Coherence: Migrating Hallucinations in Large Language Models via Absorbing Markov Chains [6.920249042435973]
大規模言語モデル(LLM)は、テキスト生成、翻訳、要約のための強力なツールである。
LLMは、文脈情報の忠実さとコヒーレンスを維持するのに失敗する幻覚症状に悩まされることが多い。
本稿では,マルコフ連鎖を吸収し,文脈情報の重要性を定量化する新しい復号手法を提案する。
論文 参考訳(メタデータ) (2024-10-27T04:51:18Z) - Learning by Surprise: Surplexity for Mitigating Model Collapse in Generative AI [1.6545633988217645]
合成コンテンツがWebに浸透するにつれて、生成的AIモデルは自身の出力で再訓練される可能性がある。
これによってモデルが崩壊し、世代間でパフォーマンスと多様性が徐々に失われます。
本稿では,モデルの次点確率分布から直接崩壊を特徴付ける新しい尺度を提案する。
論文 参考訳(メタデータ) (2024-10-16T08:02:48Z) - Text2Data: Low-Resource Data Generation with Textual Control [100.5970757736845]
Text2Dataは、ラベルのないデータを使って基盤となるデータ配布を理解する新しいアプローチである。
制御性を確保し、破滅的な忘れを効果的に防止する、制約最適化に基づく新たな学習目標を通じて微調整を行う。
論文 参考訳(メタデータ) (2024-02-08T03:41:39Z) - Capturing Pertinent Symbolic Features for Enhanced Content-Based
Misinformation Detection [0.0]
誤解を招く内容の検出は、言語的・ドメイン的多様性の極端さから、大きなハードルとなる。
本稿では,この現象を特徴付ける言語特性と,最も一般的な誤情報データセットの表現方法について分析する。
ニューラルネットワークモデルと組み合わせた関連する記号的知識の適切な利用は、誤解を招くコンテンツを検出するのに有効であることを示す。
論文 参考訳(メタデータ) (2024-01-29T16:42:34Z) - CoCo: Coherence-Enhanced Machine-Generated Text Detection Under Data
Limitation With Contrastive Learning [14.637303913878435]
低リソースシナリオ下でMGTを検出するために,コヒーレンスに基づくコントラスト学習モデルCoCoを提案する。
言語的特徴を活用するために,グラフ形式でコヒーレンス情報をテキスト表現にエンコードする。
2つの公開データセットと2つの自己構築データセットの実験結果は、我々のアプローチが最先端の手法を大幅に上回っていることを証明している。
論文 参考訳(メタデータ) (2022-12-20T15:26:19Z) - Contextual information integration for stance detection via
cross-attention [59.662413798388485]
スタンス検出は、著者の目標に対する姿勢を特定することを扱う。
既存のスタンス検出モデルの多くは、関連するコンテキスト情報を考慮していないため、制限されている。
文脈情報をテキストとして統合する手法を提案する。
論文 参考訳(メタデータ) (2022-11-03T15:04:29Z) - Co-Grounding Networks with Semantic Attention for Referring Expression
Comprehension in Videos [96.85840365678649]
エレガントなワンステージの枠組みで動画の表現理解を参照する問題に取り組みます。
意味的注意学習により単フレーム接地精度を高め、クロスフレーム接地一貫性を向上させます。
私たちのモデルは、RefCOCOデータセットのパフォーマンス改善によって示される、画像の表現理解の参照にも適用できます。
論文 参考訳(メタデータ) (2021-03-23T06:42:49Z) - Non-Singular Adversarial Robustness of Neural Networks [58.731070632586594]
小さな入力摂動に対する過敏性のため、アドリヤルロバスト性はニューラルネットワークにとって新たな課題となっている。
我々は,データ入力とモデル重みの共振レンズを用いて,ニューラルネットワークの非特異な対角性の概念を定式化する。
論文 参考訳(メタデータ) (2021-02-23T20:59:30Z) - Salience Estimation with Multi-Attention Learning for Abstractive Text
Summarization [86.45110800123216]
テキスト要約のタスクでは、単語、フレーズ、文のサリエンス推定が重要な要素である。
本稿では,サラレンス推定のための2つの新しい注目学習要素を含むマルチアテンション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-07T02:38:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。