論文の概要: Non-Consensual Synthetic Intimate Imagery: Prevalence, Attitudes, and
Knowledge in 10 Countries
- arxiv url: http://arxiv.org/abs/2402.01721v2
- Date: Tue, 13 Feb 2024 22:26:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-15 18:32:36.963424
- Title: Non-Consensual Synthetic Intimate Imagery: Prevalence, Attitudes, and
Knowledge in 10 Countries
- Title(参考訳): 非合意合成親密画像:10ヶ国における有病率・態度・知識
- Authors: Rebecca Umbach, Nicola Henry, Gemma Beard, Colleen Berryessa
- Abstract要約: ディープフェイク技術はユビキタスになり、写真やビデオの操作を「民主化」している。
ディープフェイク技術がよく使われるのは、性的に露骨なコンテンツを作ることで、インターネット上で広く投稿され、共有される。
本稿では,非合意型総合画像(NSII)の特定形態としての「ディープフェイクポルノ」に関する態度と行動について考察する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deepfake technologies have become ubiquitous, "democratizing" the ability to
manipulate photos and videos. One popular use of deepfake technology is the
creation of sexually explicit content, which can then be posted and shared
widely on the internet. Drawing on a survey of over 16,000 respondents in 10
different countries, this article examines attitudes and behaviors related to
"deepfake pornography" as a specific form of non-consensual synthetic intimate
imagery (NSII). Our study found that deepfake pornography behaviors were
considered harmful by respondents, despite nascent societal awareness.
Regarding the prevalence of deepfake porn victimization and perpetration, 2.2%
of all respondents indicated personal victimization, and 1.8% all of
respondents indicated perpetration behaviors. Respondents from countries with
specific legislation still reported perpetration and victimization experiences,
suggesting NSII laws are inadequate to deter perpetration. Approaches to
prevent and reduce harms may include digital literacy education, as well as
enforced platform policies, practices, and tools which better detect, prevent,
and respond to NSII content.
- Abstract(参考訳): ディープフェイク技術はユビキタスになり、写真やビデオの操作を「民主化」している。
ディープフェイク技術がよく使われるのは、性的に露骨なコンテンツを作ることで、インターネット上で広く投稿され、共有される。
本稿は,10カ国1万6000人以上の回答者を対象に,非合意型合成近親画像(NSII)の特定の形態として,「ディープフェイクポルノ」に関連する態度と行動について考察する。
調査の結果,初発の社会意識にもかかわらず,ディープフェイクポルノの行動は回答者によって有害であると考えられた。
ディープフェイクポルノの被害者化と実行率について、全回答者の2.2%が個人的被害者化を示し、1.8%が加害行動を示した。
特定の法律を制定した国からの回答は、まだ加害と被害者の体験を報告しており、NSII法は加害を抑えるのに不十分であることを示唆している。
害を予防し、軽減するためのアプローチには、デジタルリテラシー教育や、NSIIコンテンツの検出、防止、対応を行うためのプラットフォームポリシー、プラクティス、ツールが含まれる。
関連論文リスト
- Behind the Deepfake: 8% Create; 90% Concerned. Surveying public exposure to and perceptions of deepfakes in the UK [1.0228192660021962]
本稿は、英国成人1403人の全国代表調査から得られた知見に基づいて、ディープフェイクの公的な露出と知覚について考察する。
平均して15%が、ディープフェイクポルノ、ディープフェイク詐欺や詐欺などの有害なディープフェイクに曝されていると報告している。
有害なディープフェイクへの曝露は比較的少なかったが、ディープフェイクに対する認識と恐怖は高かった。
ほとんどの回答者は、ディープフェイクがオンラインの児童性的虐待の素材に追加され、情報への不信を高め、世論を操作できるのではないかと心配していた。
論文 参考訳(メタデータ) (2024-07-08T00:22:51Z) - "Violation of my body:" Perceptions of AI-generated non-consensual (intimate) imagery [22.68931586977199]
AI技術は、超現実的な合成メディアであるディープフェイクの作成を可能にした。
我々は米国の315人の個人を対象に、それらを描いたディープフェイクの仮説的非合意創造に関する彼らの見解を調査した。
論文 参考訳(メタデータ) (2024-06-08T16:57:20Z) - "Did They F***ing Consent to That?": Safer Digital Intimacy via Proactive Protection Against Image-Based Sexual Abuse [12.424265801615322]
成人10人に8人がヌード画像やリュード画像などの親密な内容を共有している。
態度の厳格化と技術的な緩和の欠如は、そのようなコンテンツをシェアする人々を性的暴力のリスクに晒した。
論文 参考訳(メタデータ) (2024-03-07T17:04:55Z) - Unveiling Local Patterns of Child Pornography Consumption in France
using Tor [0.6749750044497731]
本稿では,Torネットワーク関連Webサービスの詳細な移動トラフィックデータを用いて,フランスの20大都市圏の1341のフランスコミューンにおける児童ポルノ消費の地域パターンを分析した。
本研究では,フランスにおけるTorのモバイルダウンロードトラフィックの約0.08%が,児童性虐待資料の消費に関係していると推定した。
論文 参考訳(メタデータ) (2023-10-17T09:31:26Z) - Tainted Love: A Systematic Review of Online Romance Fraud [68.8204255655161]
ロマンス詐欺は、オンラインデートプラットフォーム上でのロマンチックな関係をサイバー犯罪者が構築することを含む。
我々は,ロマンス詐欺の文学的景観を特徴づけ,研究者や実践者の理解を深める。
主な貢献は, ロマンス詐欺のプロファイル, ロマンス詐欺の緩和対策, 詐欺師や被害者となることを前提とした要因の3つであった。
論文 参考訳(メタデータ) (2023-02-28T20:34:07Z) - Fighting Malicious Media Data: A Survey on Tampering Detection and
Deepfake Detection [115.83992775004043]
近年のディープラーニング、特に深層生成モデルの発展により、知覚的に説得力のある画像や動画を低コストで制作するための扉が開かれた。
本稿では,現在のメディアタンパリング検出手法を概観し,今後の研究の課題と動向について論じる。
論文 参考訳(メタデータ) (2022-12-12T02:54:08Z) - Reporting Revenge Porn: a Preliminary Expert Analysis [0.0]
本稿では,コンテンツ共有プラットフォームにおけるリベンジポルノの乱用を報告するためのプロセスについて,予備的専門家による分析を行った。
その中には、ソーシャルネットワーク、画像ホスティングサイト、ビデオホスティングプラットフォーム、フォーラム、ポルノサイトが含まれていました。
論文 参考訳(メタデータ) (2021-06-23T08:08:59Z) - A Study of Face Obfuscation in ImageNet [94.2949777826947]
本稿では,imagenetチャレンジにおける画像難読化について検討する。
ImageNetチャレンジのほとんどのカテゴリは、人のカテゴリではありません。
さまざまな深層ニューラルネットワークを顔画像上でベンチマークし、異なるカテゴリに対する異なる影響を観察します。
結果は、顔が破れた画像で学んだ特徴が等しく転送可能であることを示している。
論文 参考訳(メタデータ) (2021-03-10T17:11:34Z) - Investigating Bias in Deep Face Analysis: The KANFace Dataset and
Empirical Study [67.3961439193994]
現在までに最も包括的で大規模な顔画像とビデオのデータセットを導入している。
データは、アイデンティティ、正確な年齢、性別、親族関係の点で手動で注釈付けされる。
提案したベンチマークでネットワーク埋め込みをデバイアス化する手法を導入し,テストした。
論文 参考訳(メタデータ) (2020-05-15T00:14:39Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z) - Investigating the Impact of Inclusion in Face Recognition Training Data
on Individual Face Identification [93.5538147928669]
最新のオープンソースの顔認識システムであるArcFaceを、100万枚以上の散らばった画像を用いた大規模な顔識別実験で監査する。
モデルのトレーニングデータには79.71%、存在しない人には75.73%のランク1顔認証精度がある。
論文 参考訳(メタデータ) (2020-01-09T15:50:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。