論文の概要: Understanding Help-Seeking and Help-Giving on Social Media for Image-Based Sexual Abuse
- arxiv url: http://arxiv.org/abs/2406.12161v1
- Date: Tue, 18 Jun 2024 00:23:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-19 23:28:06.612396
- Title: Understanding Help-Seeking and Help-Giving on Social Media for Image-Based Sexual Abuse
- Title(参考訳): 画像に基づく性的虐待に対するヘルプ検索とソーシャルメディア上でのヘルプ学習の理解
- Authors: Miranda Wei, Sunny Consolvo, Patrick Gage Kelley, Tadayoshi Kohno, Tara Matthews, Sarah Meiklejohn, Franziska Roesner, Renee Shelby, Kurt Thomas, Rebecca Umbach,
- Abstract要約: 画像ベースの性的虐待(IBSA)は、人々のデジタル安全に対する脅威が増大している。
本稿では,ソーシャルメディア上でのIBSA支援の取り組みと支援について考察する。
- 参考スコア(独自算出の注目度): 28.586678492600864
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Image-based sexual abuse (IBSA), like other forms of technology-facilitated abuse, is a growing threat to people's digital safety. Attacks include unwanted solicitations for sexually explicit images, extorting people under threat of leaking their images, or purposefully leaking images to enact revenge or exert control. In this paper, we explore how people seek and receive help for IBSA on social media. Specifically, we identify over 100,000 Reddit posts that engage relationship and advice communities for help related to IBSA. We draw on a stratified sample of 261 posts to qualitatively examine how various types of IBSA unfold, including the mapping of gender, relationship dynamics, and technology involvement to different types of IBSA. We also explore the support needs of victim-survivors experiencing IBSA and how communities help victim-survivors navigate their abuse through technical, emotional, and relationship advice. Finally, we highlight sociotechnical gaps in connecting victim-survivors with important care, regardless of whom they turn to for help.
- Abstract(参考訳): 画像ベースの性的虐待(IBSA)は、他のテクノロジーに精通した虐待と同様に、人々のデジタル安全に対する脅威が増大している。
攻撃には、性的露骨なイメージに対する望ましくない勧誘、イメージをリークする恐れのある人々をゆがめること、復讐や統制を行うために意図的に画像をリークすることなどが含まれる。
本稿では,ソーシャルメディア上でのIBSA支援の取り組みと支援について考察する。
具体的には、IBSAに関連する支援のために、関係やアドバイスのコミュニティに携わるRedditの投稿10万件以上を特定します。
性別のマッピング,関係ダイナミクス,テクノロジの関与など,さまざまなタイプのIBSAがどのように展開するかを定性的に検討するため,261のポストの成層化サンプルを作成した。
また、IBSAを経験する被害者生存者のサポートニーズや、技術的、感情的、関係的なアドバイスを通じて被害者生存者への虐待をどうナビゲートするかについても検討する。
最後に、誰が助けを求めるかに関わらず、被害者の生き残りと重要なケアを結びつけるための社会技術的ギャップを強調した。
関連論文リスト
- Privacy-preserving Optics for Enhancing Protection in Face De-identification [60.110274007388135]
この脆弱性を解決するために,ハードウェアレベルの顔識別手法を提案する。
また、プライバシ保存画像、フェイスヒートマップ、およびパブリックデータセットからの参照顔イメージを入力として、新しい顔を生成する匿名化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-31T19:28:04Z) - "Did They F***ing Consent to That?": Safer Digital Intimacy via Proactive Protection Against Image-Based Sexual Abuse [12.424265801615322]
成人10人に8人がヌード画像やリュード画像などの親密な内容を共有している。
態度の厳格化と技術的な緩和の欠如は、そのようなコンテンツをシェアする人々を性的暴力のリスクに晒した。
論文 参考訳(メタデータ) (2024-03-07T17:04:55Z) - Non-Consensual Synthetic Intimate Imagery: Prevalence, Attitudes, and
Knowledge in 10 Countries [0.0]
ディープフェイク技術はユビキタスになり、写真やビデオの操作を「民主化」している。
ディープフェイク技術がよく使われるのは、性的に露骨なコンテンツを作ることで、インターネット上で広く投稿され、共有される。
本稿では,非合意型総合画像(NSII)の特定形態としての「ディープフェイクポルノ」に関する態度と行動について考察する。
論文 参考訳(メタデータ) (2024-01-26T21:51:49Z) - A deep-learning approach to early identification of suggested sexual
harassment from videos [0.802904964931021]
セクシュアルハラスメント、性的虐待、性的暴力はこの日と年齢でよく見られる問題である。
我々はこれらの状況を描写した画像に現れる視覚的特徴に基づいて3つの用語(嫌がらせ、虐待、暴力)を分類した。
その結果,被害者の表情や加害者の表情,不必要な触覚などの要因が,シーンの識別に直接関係していることが判明した。
これらの定義と特徴に基づいて,インド映画シーンのファースト・オブ・ザ・キンド・データセットを開発した。
論文 参考訳(メタデータ) (2023-06-01T16:14:17Z) - Fighting Malicious Media Data: A Survey on Tampering Detection and
Deepfake Detection [115.83992775004043]
近年のディープラーニング、特に深層生成モデルの発展により、知覚的に説得力のある画像や動画を低コストで制作するための扉が開かれた。
本稿では,現在のメディアタンパリング検出手法を概観し,今後の研究の課題と動向について論じる。
論文 参考訳(メタデータ) (2022-12-12T02:54:08Z) - Hierarchical Perceptual Noise Injection for Social Media Fingerprint
Privacy Protection [106.5308793283895]
ソーシャルメディアからの指紋漏洩は 画像を匿名化したいという強い欲求を喚起します
指紋漏洩を保護するために、画像に知覚不能な摂動を加えることにより、敵攻撃が解決策として現れる。
この問題を解決するために,階層型パーセプティカルノイズ注入フレームワークであるFingerSafeを提案する。
論文 参考訳(メタデータ) (2022-08-23T02:20:46Z) - Detecting Damage Building Using Real-time Crowdsourced Images and
Transfer Learning [53.26496452886417]
本稿では,Twitterなどのソーシャルメディアプラットフォームから地震後の建物画像を自動的に抽出する手法を提案する。
トランスファーラーニングと6500枚の手動ラベル付き画像を用いて,現場に損傷のある建物を画像として認識する深層学習モデルを訓練した。
訓練されたモデルは、異なる場所で新たに取得した地震の画像でテストし、トルコのM7.0地震の後、Twitterのフィードでほぼリアルタイムで実行された。
論文 参考訳(メタデータ) (2021-10-12T06:31:54Z) - Reporting Revenge Porn: a Preliminary Expert Analysis [0.0]
本稿では,コンテンツ共有プラットフォームにおけるリベンジポルノの乱用を報告するためのプロセスについて,予備的専門家による分析を行った。
その中には、ソーシャルネットワーク、画像ホスティングサイト、ビデオホスティングプラットフォーム、フォーラム、ポルノサイトが含まれていました。
論文 参考訳(メタデータ) (2021-06-23T08:08:59Z) - Semi-Supervised Classification of Social Media Posts: Identifying
Sex-Industry Posts to Enable Better Support for Those Experiencing
Sex-Trafficking [0.0]
ソーシャルメディアは、セックスの密売に対する仕事にとって有益かつ有害である。
ソーシャルメディアデータを使って、トラフィックを経験する人たちのサポートをより良くする機会がある。
この論文は、性産業の一部であるソーシャルメディア投稿を特定するための半教師付き学習の利用を探求している。
論文 参考訳(メタデータ) (2021-04-07T16:31:14Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。