論文の概要: Understanding the Complexities of Responsibly Sharing NSFW Content Online
- arxiv url: http://arxiv.org/abs/2511.15726v1
- Date: Sun, 16 Nov 2025 17:51:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-21 17:08:52.293004
- Title: Understanding the Complexities of Responsibly Sharing NSFW Content Online
- Title(参考訳): NSFWコンテンツオンライン共有の複雑さの理解
- Authors: Shalini Jangra, Zaid Almahmoud, Suparna De, Gareth Tyson, Ehsan Ul Haq, Nishanth Sastry,
- Abstract要約: Redditはメインストリームのソーシャルプラットフォームの中で少数派であり、許容範囲の端にあると考えられるコンテンツを投稿することを許可している。
NSFWは主流プラットフォームで一般的になりつつあり、Xはそのような素材を許容している。
本研究では,NSFW制限されたサブレディットトップ15をサイズ別に検討し,アダルトコンテンツ共有の複雑さについて検討した。
- 参考スコア(独自算出の注目度): 10.792479351547692
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reddit is in the minority of mainstream social platforms that permit posting content that may be considered to be at the edge of what is permissible, including so-called Not Safe For Work (NSFW) content. However, NSFW is becoming more common on mainstream platforms, with X now allowing such material. We examine the top 15 NSFW-restricted subreddits by size to explore the complexities of responsibly sharing adult content, aiming to balance ethical and legal considerations with monetization opportunities. We find that users often use NSFW subreddits as a social springboard, redirecting readers to private or specialized adult social platforms such as Telegram, Kik or OnlyFans for further interactions. They also directly negotiate image "trades" through credit cards or payment platforms such as PayPal, Bitcoin or Venmo. Disturbingly, we also find linguistic cues linked to non-consensual content sharing. To help platforms moderate such behavior, we trained a RoBERTa-based classification model, which outperforms GPT-4 and traditional classifiers such as logistic regression and random forest in identifying non-consensual content sharing, demonstrating superior performance in this specific task. The source code and trained model weights are publicly available at https://github.com/socsys/15NSFW Subreddits.
- Abstract(参考訳): Redditは主流のソーシャルプラットフォームの中で少数派であり、いわゆるNot Safe For Work(NSFW)コンテンツを含む、許容範囲の端にあると思われるコンテンツの投稿を許可している。
しかし、NSFWは主流のプラットフォームで一般的になりつつあり、Xはそのような素材を許容している。
本研究は, NSFW制限下級下級下級下級下級下級下級下級者15名を対象に, 責任ある成人コンテンツ共有の複雑さを調査し, 倫理的・法的考察と収益化の機会とのバランスを図ることを目的とした。
利用者はNSFWサブレディットをソーシャル・スプリングボードとして利用し、Telegram、Kik、Not onlyFansといった個人または専門のアダルト・ソーシャル・プラットフォームに読者をリダイレクトする。
また、クレジットカードやPayPal、Bitcoin、Venmoなどの決済プラットフォームを通じて、画像の“トラフィック”を直接交渉する。
また,非合意的コンテンツ共有に関連付けられた言語的手がかりも見いだされる。
本研究では,ロベルタをベースとした分類モデルを用いて,ロジスティック回帰やランダムフォレストといった従来の分類器の非合意的コンテンツ共有の識別において,GPT-4よりも優れた性能を示す。
ソースコードとトレーニングされたモデルウェイトはhttps://github.com/socsys/15NSFW Subredditsで公開されている。
関連論文リスト
- VModA: An Effective Framework for Adaptive NSFW Image Moderation [36.86383821944732]
Not Safe/Suitable for Work (NSFW)コンテンツは、ソーシャルネットワーク上で急速に普及し、市民、特に未成年者に深刻な害を与えている。
現在の検出法は主に深層学習に基づく画像認識と分類に依存している。
本稿では,多種多様なモデレーションルールに適応し,複雑でセマンティックにリッチなNSFWコンテンツを扱うフレームワークであるVModAを提案する。
論文 参考訳(メタデータ) (2025-05-29T12:11:28Z) - English offensive text detection using CNN based Bi-GRU model [1.102674168371806]
FacebookやTwitterのようなソーシャルネットワークサイトは、ワンクリックで大量のコンテンツを共有できるプラットフォームを提供している。
これらのプラットフォームは、アップロードされたコンテンツに制限を課していない。
テキストが攻撃的であるか否かを分類する新しいBi-GRU-CNNモデルを提案する。
論文 参考訳(メタデータ) (2024-09-24T01:29:24Z) - Online Learning in a Creator Economy [91.55437924091844]
われわれはクリエーター経済を、ユーザー、プラットフォーム、コンテンツクリエーターの3人組ゲームとして研究している。
私たちは、リターンベースの契約とフィーチャーベースの契約の2つのファミリーを分析します。
滑らかな仮定の下では、リターンベースの契約とレコメンデーションポリシーの協調最適化が後悔をもたらすことを示す。
論文 参考訳(メタデータ) (2023-05-19T01:58:13Z) - Analyzing Norm Violations in Live-Stream Chat [49.120561596550395]
本研究は,ライブストリーミングプラットフォーム上での会話における規範違反を検出することを目的とした,最初のNLP研究である。
ライブストリームチャットにおける標準違反カテゴリを定義し、Twitchから4,583のコメントを注釈付けします。
以上の結果から,適切なコンテキスト情報がモデレーション性能を35%向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2023-05-18T05:58:27Z) - "Nudes? Shouldn't I charge for these?" : Motivations of New Sexual
Content Creators on OnlyFans [5.829936645872441]
OnlyFansのクリエイターは、プロのソーシャルメディアコンテンツ制作と性労働の交差点にユニークな位置にいる。
参加者のモチベーションは,(1)オンリーファンズの社会的可視性と主流の受容,(2)クライアントとのバウンダリ設定,公共のプライバシ,コンテンツアーカイブ,(3)パンデミックの3つであった。
論文 参考訳(メタデータ) (2022-05-20T19:59:51Z) - LFW-Beautified: A Dataset of Face Images with Beautification and
Augmented Reality Filters [53.180678723280145]
いくつかの操作を含む顔画像のデータベースにコントリビュートする。
画像強調フィルター(コントラストや稲妻を主に修正する)や、動物の鼻や眼鏡などのアイテムを組み込んだ拡張現実フィルターが含まれている。
各データセットには、64×64の4,324枚の画像があり、合計34,592枚の画像がある。
論文 参考訳(メタデータ) (2022-03-11T17:05:10Z) - Beyond Plain Toxic: Detection of Inappropriate Statements on Flammable
Topics for the Russian Language [76.58220021791955]
本稿では,不合理性という二項的概念と,センシティブなトピックの多項的概念に基づいてラベル付けされた2つのテキストコレクションについて述べる。
不適切な概念を客観するために、クラウドソーシングではデータ駆動方式で定義する。
論文 参考訳(メタデータ) (2022-03-04T15:59:06Z) - Federated Social Recommendation with Graph Neural Network [69.36135187771929]
本稿では,ソーシャル情報とユーザ・イテムの相互作用を融合させることにより,ソーシャル・レコメンデーションの問題であるソーシャル・リコメンデーションの緩和を提案する。
我々は textbfGraph Neural Network (FeSoG) を用いた textbfFedrated textbfSocial 推薦フレームワークを考案した。
論文 参考訳(メタデータ) (2021-11-21T09:41:39Z) - News consumption and social media regulations policy [70.31753171707005]
我々は、ニュース消費とコンテンツ規制の間の相互作用を評価するために、反対のモデレーション手法であるTwitterとGabを強制した2つのソーシャルメディアを分析した。
以上の結果から,Twitterが追求するモデレーションの存在は,疑わしいコンテンツを著しく減少させることがわかった。
Gabに対する明確な規制の欠如は、ユーザが両方のタイプのコンテンツを扱う傾向を生じさせ、ディスカウント/エンドレスメントの振る舞いを考慮に入れた疑わしいコンテンツに対してわずかに好みを示す。
論文 参考訳(メタデータ) (2021-06-07T19:26:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。