論文の概要: Reporting Revenge Porn: a Preliminary Expert Analysis
- arxiv url: http://arxiv.org/abs/2106.12223v1
- Date: Wed, 23 Jun 2021 08:08:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-25 18:39:11.772176
- Title: Reporting Revenge Porn: a Preliminary Expert Analysis
- Title(参考訳): Revenge Porn: 予備的専門家分析
- Authors: A. De Angeli, M. Falduti, M. Menendez Blanco, S. Tessaris
- Abstract要約: 本稿では,コンテンツ共有プラットフォームにおけるリベンジポルノの乱用を報告するためのプロセスについて,予備的専門家による分析を行った。
その中には、ソーシャルネットワーク、画像ホスティングサイト、ビデオホスティングプラットフォーム、フォーラム、ポルノサイトが含まれていました。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In our research, we focus on the response to the non-consensual distribution
of intimate or sexually explicit digital images of adults, also referred as
revenge porn, from the point of view of the victims. In this paper, we present
a preliminary expert analysis of the process for reporting revenge porn abuses
in selected content sharing platforms. Among these, we included social
networks, image hosting websites, video hosting platforms, forums, and
pornographic sites. We looked at the way to report abuse, concerning both the
non-consensual online distribution of private sexual image or video (revenge
pornography), as well as the use of deepfake techniques, where the face of a
person can be replaced on original visual content with the aim of portraying
the victim in the context of sexual behaviours. This preliminary analysis is
directed to understand the current practices and potential issues in the
procedures designed by the providers for reporting these abuses.
- Abstract(参考訳): 本研究では,リベンジポルノ(リベンジポルノ)と呼ばれる成人の親密・性的に露骨なデジタル画像の非コンセンサス分布に対する,被害者の視点からの対応に焦点を当てた。
本稿では,選択したコンテンツ共有プラットフォームにおけるリベンジポルノ乱用を報告するためのプロセスに関する予備的専門家分析を行う。
その中には、ソーシャルネットワーク、画像ホスティングサイト、ビデオホスティングプラットフォーム、フォーラム、ポルノサイトが含まれていました。
性的行為の文脈における被害者の描写を目的とし、本人の顔を元の視覚的内容に置き換えるディープフェイク技術(ディープフェイク技術)の活用と、非合意による性的イメージやビデオのオンライン配信(リベンジポルノ)について、虐待を報告する方法について検討した。
この予備分析は、これらの乱用を報告するためにプロバイダが設計した手順における、現在のプラクティスと潜在的な問題を理解することを目的としている。
関連論文リスト
- Understanding Help-Seeking and Help-Giving on Social Media for Image-Based Sexual Abuse [28.586678492600864]
画像ベースの性的虐待(IBSA)は、人々のデジタル安全に対する脅威が増大している。
本稿では,ソーシャルメディア上でのIBSA支援の取り組みと支援について考察する。
論文 参考訳(メタデータ) (2024-06-18T00:23:00Z) - "Did They F***ing Consent to That?": Safer Digital Intimacy via Proactive Protection Against Image-Based Sexual Abuse [12.424265801615322]
成人10人に8人がヌード画像やリュード画像などの親密な内容を共有している。
態度の厳格化と技術的な緩和の欠如は、そのようなコンテンツをシェアする人々を性的暴力のリスクに晒した。
論文 参考訳(メタデータ) (2024-03-07T17:04:55Z) - Non-Consensual Synthetic Intimate Imagery: Prevalence, Attitudes, and
Knowledge in 10 Countries [0.0]
ディープフェイク技術はユビキタスになり、写真やビデオの操作を「民主化」している。
ディープフェイク技術がよく使われるのは、性的に露骨なコンテンツを作ることで、インターネット上で広く投稿され、共有される。
本稿では,非合意型総合画像(NSII)の特定形態としての「ディープフェイクポルノ」に関する態度と行動について考察する。
論文 参考訳(メタデータ) (2024-01-26T21:51:49Z) - Unveiling Local Patterns of Child Pornography Consumption in France
using Tor [0.6749750044497731]
本稿では,Torネットワーク関連Webサービスの詳細な移動トラフィックデータを用いて,フランスの20大都市圏の1341のフランスコミューンにおける児童ポルノ消費の地域パターンを分析した。
本研究では,フランスにおけるTorのモバイルダウンロードトラフィックの約0.08%が,児童性虐待資料の消費に関係していると推定した。
論文 参考訳(メタデータ) (2023-10-17T09:31:26Z) - A deep-learning approach to early identification of suggested sexual
harassment from videos [0.802904964931021]
セクシュアルハラスメント、性的虐待、性的暴力はこの日と年齢でよく見られる問題である。
我々はこれらの状況を描写した画像に現れる視覚的特徴に基づいて3つの用語(嫌がらせ、虐待、暴力)を分類した。
その結果,被害者の表情や加害者の表情,不必要な触覚などの要因が,シーンの識別に直接関係していることが判明した。
これらの定義と特徴に基づいて,インド映画シーンのファースト・オブ・ザ・キンド・データセットを開発した。
論文 参考訳(メタデータ) (2023-06-01T16:14:17Z) - Tainted Love: A Systematic Review of Online Romance Fraud [68.8204255655161]
ロマンス詐欺は、オンラインデートプラットフォーム上でのロマンチックな関係をサイバー犯罪者が構築することを含む。
我々は,ロマンス詐欺の文学的景観を特徴づけ,研究者や実践者の理解を深める。
主な貢献は, ロマンス詐欺のプロファイル, ロマンス詐欺の緩和対策, 詐欺師や被害者となることを前提とした要因の3つであった。
論文 参考訳(メタデータ) (2023-02-28T20:34:07Z) - Fighting Malicious Media Data: A Survey on Tampering Detection and
Deepfake Detection [115.83992775004043]
近年のディープラーニング、特に深層生成モデルの発展により、知覚的に説得力のある画像や動画を低コストで制作するための扉が開かれた。
本稿では,現在のメディアタンパリング検出手法を概観し,今後の研究の課題と動向について論じる。
論文 参考訳(メタデータ) (2022-12-12T02:54:08Z) - Fragments of the Past: Curating Peer Support with Perpetrators of
Domestic Violence [88.37416552778178]
我々は,過去フラグメントの設計と展開において,6人の支援労働者と18人の加害者とともに働いた10ヶ月の研究を報告した。
私たちは、暴力から脱却した経験をデジタルで強化された成果物、すなわち「フラグメント」を作ることが、メッセージのモチベーションと仲間間のラッピングをいかに翻訳するかを共有します。
これらの知見は、挑戦的な人口を持つ将来のネットワーク設計の実践的考察の基礎となる。
論文 参考訳(メタデータ) (2021-07-09T22:57:43Z) - Privacy-Preserving Image Acquisition Using Trainable Optical Kernel [50.1239616836174]
本稿では、画像センサに到達する前に、光学領域の感度の高い識別情報を除去する訓練可能な画像取得手法を提案する。
イメージセンサに到達する前に、センシティブなコンテンツが抑制されるため、デジタルドメインには入らないため、いかなる種類のプライバシー攻撃でも検索できない。
論文 参考訳(メタデータ) (2021-06-28T11:08:14Z) - Multi-Modal Video Forensic Platform for Investigating Post-Terrorist
Attack Scenarios [55.82693757287532]
大規模ビデオ分析プラットフォーム(VAP)は、容疑者を特定し証拠を確保するために法執行機関(LEA)を支援する。
本稿では,視覚・音声分析モジュールを統合し,監視カメラからの情報と目撃者からの映像アップロードを融合するビデオ分析プラットフォームを提案する。
論文 参考訳(メタデータ) (2020-04-02T14:29:27Z) - #MeToo on Campus: Studying College Sexual Assault at Scale Using Data
Reported on Social Media [71.74529365205053]
我々は、#トレンドが大学フォロワーのプールに与える影響を分析した。
その結果、これらの#ツイートに埋め込まれたトピックの大部分は、セクシャルハラスメントのストーリーを詳述している。
この傾向といくつかの主要地理的地域に関する公式な報告との間には大きな相関関係がある。
論文 参考訳(メタデータ) (2020-01-16T18:05:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。