論文の概要: Attitudes Towards and Knowledge of Non-Consensual Synthetic Intimate
Imagery in 10 Countries
- arxiv url: http://arxiv.org/abs/2402.01721v1
- Date: Fri, 26 Jan 2024 21:51:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-11 16:29:51.684916
- Title: Attitudes Towards and Knowledge of Non-Consensual Synthetic Intimate
Imagery in 10 Countries
- Title(参考訳): 10ヶ国における非合意合成親密画像の態度と知識
- Authors: Rebecca Umbach, Nicola Henry, Gemma Beard, Colleen Berryessa
- Abstract要約: ディープフェイク技術ツールがユビキタスになり、画像やビデオを操作する能力を「民主化」している。
このような技術の一般的な用途の一つは、性的に明示的なコンテンツの作成であり、それが投稿され、広く共有される。
本稿では,10カ国16,000人以上の回答者を対象に,非合意な合成親密画像に対する態度と行動について検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deepfake technology tools have become ubiquitous, "democratizing" the ability
to manipulate images and videos. One popular use of such technology is the
creation of sexually explicit content, which can then be posted and shared
widely on the internet. This article examines attitudes and behaviors related
to non-consensual synthetic intimate imagery (NSII) across over 16,000
respondents in 10 countries. Despite nascent societal awareness of NSII, NSII
behaviors were considered harmful. In regards to prevalence, 2.2% of all
respondents indicated personal victimization, and 1.8% all of respondents
indicated perpetration behaviors. Respondents from countries with relevant
legislation also reported perpetration and victimization experiences,
suggesting legislative action alone is not a sufficient solution to deter
perpetration. Technical considerations to reduce harms may include suggestions
for how individuals can better monitor their presence online, as well as
enforced platform policies which ban, or allow for removal of, NSII content.
- Abstract(参考訳): ディープフェイク技術ツールはユビキタスになり、画像や動画を操作する能力を「民主化」している。
このようなテクノロジーの一般的な用途は、性的に明示的なコンテンツの作成であり、インターネット上で広く投稿され、共有される。
本稿は、10か国16,000人を超える非コンセンサス合成親密画像(nsii)に関する態度と行動について検討する。
NSIIの社会的認知にもかかわらず、NSIIの行動は有害とみなされた。
有病率については、全回答者の2.2%が個人的被害者化を示し、1.8%が加害行動を示した。
関連する法律を持つ国々の回答者も、加害体験や犠牲体験を報告しており、加害を抑止するには立法行動だけでは十分ではないと示唆している。
害を減らすための技術的考察には、個人がオンラインでのプレゼンスをよりよく監視する方法や、NSIIコンテンツの禁止や削除を許可するプラットフォームポリシーの強制などが含まれる。
関連論文リスト
- "Did They Consent to That?": Safer Digital Intimacy via Proactive Protection Against Image-Based Sexual Abuse [12.424265801615322]
成人10人に8人がヌード画像やリュード画像などの親密な内容を共有している。
態度の厳格化と技術的な緩和の欠如は、そのようなコンテンツをシェアする人たちを性的暴力のリスクに晒した。
推定3人に1人が画像による性的虐待を受けている。
論文 参考訳(メタデータ) (2024-03-07T17:04:55Z) - Unveiling Local Patterns of Child Pornography Consumption in France
using Tor [0.6749750044497731]
本稿では,Torネットワーク関連Webサービスの詳細な移動トラフィックデータを用いて,フランスの20大都市圏の1341のフランスコミューンにおける児童ポルノ消費の地域パターンを分析した。
本研究では,フランスにおけるTorのモバイルダウンロードトラフィックの約0.08%が,児童性虐待資料の消費に関係していると推定した。
論文 参考訳(メタデータ) (2023-10-17T09:31:26Z) - A deep-learning approach to early identification of suggested sexual
harassment from videos [0.802904964931021]
セクシュアルハラスメント、性的虐待、性的暴力はこの日と年齢でよく見られる問題である。
我々はこれらの状況を描写した画像に現れる視覚的特徴に基づいて3つの用語(嫌がらせ、虐待、暴力)を分類した。
その結果,被害者の表情や加害者の表情,不必要な触覚などの要因が,シーンの識別に直接関係していることが判明した。
これらの定義と特徴に基づいて,インド映画シーンのファースト・オブ・ザ・キンド・データセットを開発した。
論文 参考訳(メタデータ) (2023-06-01T16:14:17Z) - Tainted Love: A Systematic Review of Online Romance Fraud [68.8204255655161]
ロマンス詐欺は、オンラインデートプラットフォーム上でのロマンチックな関係をサイバー犯罪者が構築することを含む。
我々は,ロマンス詐欺の文学的景観を特徴づけ,研究者や実践者の理解を深める。
主な貢献は, ロマンス詐欺のプロファイル, ロマンス詐欺の緩和対策, 詐欺師や被害者となることを前提とした要因の3つであった。
論文 参考訳(メタデータ) (2023-02-28T20:34:07Z) - Fighting Malicious Media Data: A Survey on Tampering Detection and
Deepfake Detection [115.83992775004043]
近年のディープラーニング、特に深層生成モデルの発展により、知覚的に説得力のある画像や動画を低コストで制作するための扉が開かれた。
本稿では,現在のメディアタンパリング検出手法を概観し,今後の研究の課題と動向について論じる。
論文 参考訳(メタデータ) (2022-12-12T02:54:08Z) - Reporting Revenge Porn: a Preliminary Expert Analysis [0.0]
本稿では,コンテンツ共有プラットフォームにおけるリベンジポルノの乱用を報告するためのプロセスについて,予備的専門家による分析を行った。
その中には、ソーシャルネットワーク、画像ホスティングサイト、ビデオホスティングプラットフォーム、フォーラム、ポルノサイトが含まれていました。
論文 参考訳(メタデータ) (2021-06-23T08:08:59Z) - A Study of Face Obfuscation in ImageNet [94.2949777826947]
本稿では,imagenetチャレンジにおける画像難読化について検討する。
ImageNetチャレンジのほとんどのカテゴリは、人のカテゴリではありません。
さまざまな深層ニューラルネットワークを顔画像上でベンチマークし、異なるカテゴリに対する異なる影響を観察します。
結果は、顔が破れた画像で学んだ特徴が等しく転送可能であることを示している。
論文 参考訳(メタデータ) (2021-03-10T17:11:34Z) - Investigating Bias in Deep Face Analysis: The KANFace Dataset and
Empirical Study [67.3961439193994]
現在までに最も包括的で大規模な顔画像とビデオのデータセットを導入している。
データは、アイデンティティ、正確な年齢、性別、親族関係の点で手動で注釈付けされる。
提案したベンチマークでネットワーク埋め込みをデバイアス化する手法を導入し,テストした。
論文 参考訳(メタデータ) (2020-05-15T00:14:39Z) - Detecting Deep-Fake Videos from Appearance and Behavior [0.0]
本稿では,顔洗脳深部偽物検出のためのバイオメトリックスに基づく法医学的手法について述べる。
複数の大規模ビデオデータセットにまたがって,このアプローチの有効性を示す。
論文 参考訳(メタデータ) (2020-04-29T21:38:22Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z) - Investigating the Impact of Inclusion in Face Recognition Training Data
on Individual Face Identification [93.5538147928669]
最新のオープンソースの顔認識システムであるArcFaceを、100万枚以上の散らばった画像を用いた大規模な顔識別実験で監査する。
モデルのトレーニングデータには79.71%、存在しない人には75.73%のランク1顔認証精度がある。
論文 参考訳(メタデータ) (2020-01-09T15:50:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。