論文の概要: Attitudes Towards and Knowledge of Non-Consensual Synthetic Intimate
Imagery in 10 Countries
- arxiv url: http://arxiv.org/abs/2402.01721v1
- Date: Fri, 26 Jan 2024 21:51:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-11 16:29:51.684916
- Title: Attitudes Towards and Knowledge of Non-Consensual Synthetic Intimate
Imagery in 10 Countries
- Title(参考訳): 10ヶ国における非合意合成親密画像の態度と知識
- Authors: Rebecca Umbach, Nicola Henry, Gemma Beard, Colleen Berryessa
- Abstract要約: ディープフェイク技術ツールがユビキタスになり、画像やビデオを操作する能力を「民主化」している。
このような技術の一般的な用途の一つは、性的に明示的なコンテンツの作成であり、それが投稿され、広く共有される。
本稿では,10カ国16,000人以上の回答者を対象に,非合意な合成親密画像に対する態度と行動について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deepfake technology tools have become ubiquitous, "democratizing" the ability
to manipulate images and videos. One popular use of such technology is the
creation of sexually explicit content, which can then be posted and shared
widely on the internet. This article examines attitudes and behaviors related
to non-consensual synthetic intimate imagery (NSII) across over 16,000
respondents in 10 countries. Despite nascent societal awareness of NSII, NSII
behaviors were considered harmful. In regards to prevalence, 2.2% of all
respondents indicated personal victimization, and 1.8% all of respondents
indicated perpetration behaviors. Respondents from countries with relevant
legislation also reported perpetration and victimization experiences,
suggesting legislative action alone is not a sufficient solution to deter
perpetration. Technical considerations to reduce harms may include suggestions
for how individuals can better monitor their presence online, as well as
enforced platform policies which ban, or allow for removal of, NSII content.
- Abstract(参考訳): ディープフェイク技術ツールはユビキタスになり、画像や動画を操作する能力を「民主化」している。
このようなテクノロジーの一般的な用途は、性的に明示的なコンテンツの作成であり、インターネット上で広く投稿され、共有される。
本稿は、10か国16,000人を超える非コンセンサス合成親密画像(nsii)に関する態度と行動について検討する。
NSIIの社会的認知にもかかわらず、NSIIの行動は有害とみなされた。
有病率については、全回答者の2.2%が個人的被害者化を示し、1.8%が加害行動を示した。
関連する法律を持つ国々の回答者も、加害体験や犠牲体験を報告しており、加害を抑止するには立法行動だけでは十分ではないと示唆している。
害を減らすための技術的考察には、個人がオンラインでのプレゼンスをよりよく監視する方法や、NSIIコンテンツの禁止や削除を許可するプラットフォームポリシーの強制などが含まれる。
関連論文リスト
- Behind the Deepfake: 8% Create; 90% Concerned. Surveying public exposure to and perceptions of deepfakes in the UK [1.0228192660021962]
本稿は、英国成人1403人の全国代表調査から得られた知見に基づいて、ディープフェイクの公的な露出と知覚について考察する。
平均して15%が、ディープフェイクポルノ、ディープフェイク詐欺や詐欺などの有害なディープフェイクに曝されていると報告している。
有害なディープフェイクへの曝露は比較的少なかったが、ディープフェイクに対する認識と恐怖は高かった。
ほとんどの回答者は、ディープフェイクがオンラインの児童性的虐待の素材に追加され、情報への不信を高め、世論を操作できるのではないかと心配していた。
論文 参考訳(メタデータ) (2024-07-08T00:22:51Z) - "Violation of my body:" Perceptions of AI-generated non-consensual (intimate) imagery [22.68931586977199]
AI技術は、超現実的な合成メディアであるディープフェイクの作成を可能にした。
我々は米国の315人の個人を対象に、それらを描いたディープフェイクの仮説的非合意創造に関する彼らの見解を調査した。
論文 参考訳(メタデータ) (2024-06-08T16:57:20Z) - "Did They F***ing Consent to That?": Safer Digital Intimacy via Proactive Protection Against Image-Based Sexual Abuse [12.424265801615322]
成人10人に8人がヌード画像やリュード画像などの親密な内容を共有している。
態度の厳格化と技術的な緩和の欠如は、そのようなコンテンツをシェアする人々を性的暴力のリスクに晒した。
論文 参考訳(メタデータ) (2024-03-07T17:04:55Z) - Unveiling Local Patterns of Child Pornography Consumption in France
using Tor [0.6749750044497731]
本稿では,Torネットワーク関連Webサービスの詳細な移動トラフィックデータを用いて,フランスの20大都市圏の1341のフランスコミューンにおける児童ポルノ消費の地域パターンを分析した。
本研究では,フランスにおけるTorのモバイルダウンロードトラフィックの約0.08%が,児童性虐待資料の消費に関係していると推定した。
論文 参考訳(メタデータ) (2023-10-17T09:31:26Z) - Tainted Love: A Systematic Review of Online Romance Fraud [68.8204255655161]
ロマンス詐欺は、オンラインデートプラットフォーム上でのロマンチックな関係をサイバー犯罪者が構築することを含む。
我々は,ロマンス詐欺の文学的景観を特徴づけ,研究者や実践者の理解を深める。
主な貢献は, ロマンス詐欺のプロファイル, ロマンス詐欺の緩和対策, 詐欺師や被害者となることを前提とした要因の3つであった。
論文 参考訳(メタデータ) (2023-02-28T20:34:07Z) - Fighting Malicious Media Data: A Survey on Tampering Detection and
Deepfake Detection [115.83992775004043]
近年のディープラーニング、特に深層生成モデルの発展により、知覚的に説得力のある画像や動画を低コストで制作するための扉が開かれた。
本稿では,現在のメディアタンパリング検出手法を概観し,今後の研究の課題と動向について論じる。
論文 参考訳(メタデータ) (2022-12-12T02:54:08Z) - Reporting Revenge Porn: a Preliminary Expert Analysis [0.0]
本稿では,コンテンツ共有プラットフォームにおけるリベンジポルノの乱用を報告するためのプロセスについて,予備的専門家による分析を行った。
その中には、ソーシャルネットワーク、画像ホスティングサイト、ビデオホスティングプラットフォーム、フォーラム、ポルノサイトが含まれていました。
論文 参考訳(メタデータ) (2021-06-23T08:08:59Z) - A Study of Face Obfuscation in ImageNet [94.2949777826947]
本稿では,imagenetチャレンジにおける画像難読化について検討する。
ImageNetチャレンジのほとんどのカテゴリは、人のカテゴリではありません。
さまざまな深層ニューラルネットワークを顔画像上でベンチマークし、異なるカテゴリに対する異なる影響を観察します。
結果は、顔が破れた画像で学んだ特徴が等しく転送可能であることを示している。
論文 参考訳(メタデータ) (2021-03-10T17:11:34Z) - Investigating Bias in Deep Face Analysis: The KANFace Dataset and
Empirical Study [67.3961439193994]
現在までに最も包括的で大規模な顔画像とビデオのデータセットを導入している。
データは、アイデンティティ、正確な年齢、性別、親族関係の点で手動で注釈付けされる。
提案したベンチマークでネットワーク埋め込みをデバイアス化する手法を導入し,テストした。
論文 参考訳(メタデータ) (2020-05-15T00:14:39Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z) - Investigating the Impact of Inclusion in Face Recognition Training Data
on Individual Face Identification [93.5538147928669]
最新のオープンソースの顔認識システムであるArcFaceを、100万枚以上の散らばった画像を用いた大規模な顔識別実験で監査する。
モデルのトレーニングデータには79.71%、存在しない人には75.73%のランク1顔認証精度がある。
論文 参考訳(メタデータ) (2020-01-09T15:50:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。