論文の概要: "Did They F***ing Consent to That?": Safer Digital Intimacy via Proactive Protection Against Image-Based Sexual Abuse
- arxiv url: http://arxiv.org/abs/2403.04659v2
- Date: Fri, 14 Jun 2024 00:56:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-17 18:52:34.233192
- Title: "Did They F***ing Consent to That?": Safer Digital Intimacy via Proactive Protection Against Image-Based Sexual Abuse
- Title(参考訳): 画像に基づく性的虐待に対する予防的保護によるデジタル親近感の確保」
- Authors: Lucy Qin, Vaughn Hamilton, Sharon Wang, Yigit Aydinalp, Marin Scarlett, Elissa M. Redmiles,
- Abstract要約: 成人10人に8人がヌード画像やリュード画像などの親密な内容を共有している。
態度の厳格化と技術的な緩和の欠如は、そのようなコンテンツをシェアする人々を性的暴力のリスクに晒した。
- 参考スコア(独自算出の注目度): 12.424265801615322
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: As many as 8 in 10 adults share intimate content such as nude or lewd images. Sharing such content has significant benefits for relationship intimacy and body image, and can offer employment. However, stigmatizing attitudes and a lack of technological mitigations put those sharing such content at risk of sexual violence. An estimated 1 in 3 people have been subjected to image-based sexual abuse (IBSA), a spectrum of violence that includes the nonconsensual distribution or threat of distribution of consensually-created intimate content (also called NDII). In this work, we conducted a rigorous empirical interview study of 52 European creators of intimate content to examine the threats they face and how they defend against them, situated in the context of their different use cases for intimate content sharing and their choice of technologies for storing and sharing such content. Synthesizing our results with the limited body of prior work on technological prevention of NDII, we offer concrete next steps for both platforms and security & privacy researchers to work toward safer intimate content sharing through proactive protection. Content Warning: This work discusses sexual violence, specifically, the harms of image-based sexual abuse (particularly in Sections 2 and 6).
- Abstract(参考訳): 成人10人に8人がヌード画像やレウド画像などの親密なコンテンツを共有している。
このようなコンテンツを共有することは、関係の親密さと身体像に大きな利益をもたらし、雇用を提供する。
しかし、態度の厳格化と技術的な緩和の欠如により、そのようなコンテンツをシェアする人々は性的暴力のリスクに晒された。
推定3人に1人が画像に基づく性的虐待(IBSA)を受けており、これは非合意的な配布や、合意によって作成された親密なコンテンツ(NDIIとも呼ばれる)の配布の脅威を含む暴力のスペクトルである。
本研究では,ヨーロッパ人52人の親密なコンテンツ制作者を対象に,親密なコンテンツ共有の異なる利用事例の文脈と,それらのコンテンツを保存・共有する技術の選択を背景として,彼らが直面している脅威とそれらに対する防御方法について,厳密なインタビューを行った。
本研究は,NDIIの技術的防止に関する先行研究の限定的な部分と組み合わせて,プラットフォームとセキュリティ・プライバシ研究者の双方にとって,積極的な保護を通じて,より安全な親密なコンテンツ共有に向けた具体的な次のステップを提供する。
コンテンツ警告: この研究は性的暴力、特に画像に基づく性的虐待(特に第2節と第6節)の害について論じている。
関連論文リスト
- SAFREE: Training-Free and Adaptive Guard for Safe Text-to-Image And Video Generation [65.30207993362595]
安全な生成のための学習/編集に基づく手法は、モデルから有害な概念を取り除くが、いくつかの課題に直面している。
安全なT2IとT2VのためのトレーニングフリーアプローチであるSAFREEを提案する。
テキスト埋め込み空間における有毒な概念の集合に対応する部分空間を検出し、この部分空間から直ちに埋め込みを行う。
論文 参考訳(メタデータ) (2024-10-16T17:32:23Z) - Understanding Help-Seeking and Help-Giving on Social Media for Image-Based Sexual Abuse [28.586678492600864]
画像ベースの性的虐待(IBSA)は、人々のデジタル安全に対する脅威が増大している。
本稿では,ソーシャルメディア上でのIBSA支援の取り組みと支援について考察する。
論文 参考訳(メタデータ) (2024-06-18T00:23:00Z) - Safer Digital Intimacy For Sex Workers And Beyond: A Technical Research Agenda [21.70034795348216]
多くの人は、セックスワーカー、クライアント、親密なコンテンツをレクリエーションに作り、共有する人々といったデジタル親密さに従事しています。
この近親相姦によって、スティグマによって悪化する、重大なセキュリティとプライバシーのリスクがもたらされる。
本稿では、より安全なデジタル親密性のための商用デジタル親密性脅威モデルと10の研究方向について述べる。
論文 参考訳(メタデータ) (2024-03-15T21:16:01Z) - Non-Consensual Synthetic Intimate Imagery: Prevalence, Attitudes, and
Knowledge in 10 Countries [0.0]
ディープフェイク技術はユビキタスになり、写真やビデオの操作を「民主化」している。
ディープフェイク技術がよく使われるのは、性的に露骨なコンテンツを作ることで、インターネット上で広く投稿され、共有される。
本稿では,非合意型総合画像(NSII)の特定形態としての「ディープフェイクポルノ」に関する態度と行動について考察する。
論文 参考訳(メタデータ) (2024-01-26T21:51:49Z) - A deep-learning approach to early identification of suggested sexual
harassment from videos [0.802904964931021]
セクシュアルハラスメント、性的虐待、性的暴力はこの日と年齢でよく見られる問題である。
我々はこれらの状況を描写した画像に現れる視覚的特徴に基づいて3つの用語(嫌がらせ、虐待、暴力)を分類した。
その結果,被害者の表情や加害者の表情,不必要な触覚などの要因が,シーンの識別に直接関係していることが判明した。
これらの定義と特徴に基づいて,インド映画シーンのファースト・オブ・ザ・キンド・データセットを開発した。
論文 参考訳(メタデータ) (2023-06-01T16:14:17Z) - Can Workers Meaningfully Consent to Workplace Wellbeing Technologies? [65.15780777033109]
本稿では、職場の福祉技術に同意する労働者が直面する課題を解き放つ。
我々は、労働者が「意味のない」同意に対して脆弱であることを示す。
参加者は、テクノロジーとテクノロジーを取り巻く政策や実践の変更を、意味のある同意を得るために望んだ。
論文 参考訳(メタデータ) (2023-03-13T16:15:07Z) - Privacy-Preserving Image Acquisition Using Trainable Optical Kernel [50.1239616836174]
本稿では、画像センサに到達する前に、光学領域の感度の高い識別情報を除去する訓練可能な画像取得手法を提案する。
イメージセンサに到達する前に、センシティブなコンテンツが抑制されるため、デジタルドメインには入らないため、いかなる種類のプライバシー攻撃でも検索できない。
論文 参考訳(メタデータ) (2021-06-28T11:08:14Z) - Reporting Revenge Porn: a Preliminary Expert Analysis [0.0]
本稿では,コンテンツ共有プラットフォームにおけるリベンジポルノの乱用を報告するためのプロセスについて,予備的専門家による分析を行った。
その中には、ソーシャルネットワーク、画像ホスティングサイト、ビデオホスティングプラットフォーム、フォーラム、ポルノサイトが含まれていました。
論文 参考訳(メタデータ) (2021-06-23T08:08:59Z) - CelebA-Spoof: Large-Scale Face Anti-Spoofing Dataset with Rich
Annotations [85.14435479181894]
CelebA-Spoofは大規模な顔アンチスプーフデータセットである。
10,177人の被験者の625,537枚の写真が含まれており、既存のデータセットよりもかなり大きい。
10のspoof型アノテーションと、オリジナルのCelebAデータセットから継承された40の属性アノテーションが含まれている。
論文 参考訳(メタデータ) (2020-07-24T04:28:29Z) - InfoScrub: Towards Attribute Privacy by Targeted Obfuscation [77.49428268918703]
視覚データに流出した個人情報を個人が制限できる技術について検討する。
我々はこの問題を新しい画像難読化フレームワークで解決する。
提案手法では,元の入力画像に忠実な難読化画像を生成するとともに,非難読化画像に対して6.2$times$(または0.85bits)の不確実性を増大させる。
論文 参考訳(メタデータ) (2020-05-20T19:48:04Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。