論文の概要: Platforms as Crime Scene, Judge, and Jury: How Victim-Survivors of Non-Consensual Intimate Imagery Report Abuse Online
- arxiv url: http://arxiv.org/abs/2512.13500v1
- Date: Mon, 15 Dec 2025 16:28:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.751405
- Title: Platforms as Crime Scene, Judge, and Jury: How Victim-Survivors of Non-Consensual Intimate Imagery Report Abuse Online
- Title(参考訳): 犯罪現場、裁判官、裁判官のようなプラットフォーム:オンライン上の非合意的親密な画像の被害者がいかに悪用されるか
- Authors: Li Qiwei, Katelyn Kennon, Nicole Bedera, Asia A. Eaton, Eric Gilbert, Sarita Schoenebeck,
- Abstract要約: NCII(non-consensual intimate image)は、オンラインプラットフォームを介して行われる。
本報告では,NCII被害者のオンライン報告体験について述べる。
プラットフォームレポートプロセスは不透明で、敵対的で、効果がないことが分かりました。
- 参考スコア(独自算出の注目度): 5.0714355107124085
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Non-consensual intimate imagery (NCII), also known as image-based sexual abuse (IBSA), is mediated through online platforms. Victim-survivors must turn to platforms to collect evidence and request content removal. Platforms act as the crime scene, judge, and jury, determining whether perpetrators face consequences and if harmful material is removed. We present a study of NCII victim-survivors' online reporting experiences, drawing on trauma-informed interviews with 13 participants. We find that platform reporting processes are hostile, opaque, and ineffective, often forcing complex harms into narrow interfaces, responding inconsistently, and failing to result in meaningful action. Leveraging institutional betrayal theory, we show how platforms' structures and practices compound harm, and, in doing so, surface concrete intervention points for redesigning reporting systems and shaping policy to better support victim-survivors
- Abstract(参考訳): 非合意性近親画像(Non-consensual intimate image, NCII)は、画像ベースの性的虐待(英語版)(IBSA)としても知られる。
被害者は証拠を収集し、コンテンツ削除を要求するプラットフォームに目を向けなければならない。
プラットフォームは犯罪現場、裁判官、陪審員として機能し、加害者が結果に直面し、有害物質が除去されるかどうかを判断する。
本研究は, NCII被害者のオンライン報告体験について, トラウマインフォームド・インタビューの13名を対象に検討した。
プラットフォームレポートプロセスは、敵対的で不透明で非効率であり、しばしば複雑な害を狭いインターフェースに強制し、矛盾に反応し、意味のあるアクションを起こさないことが分かっています。
制度的裏切った理論を活用して、プラットフォームの構造と実践が複合的害をいかに生かし、その際、報告システムを再設計し、被害者の生存を支援するための政策を形成するための具体的な介入ポイントを提示する。
関連論文リスト
- Victim-Centred Abuse Investigations and Defenses for Social Media Platforms [4.969075533165688]
我々は,米国のマイノリティサービス機関で,学生に対する調査および半構造化インタビューを実施している。
我々は、様々な社会プラットフォーム上での虐待経験、防衛戦略、虐待対応を改善するための社会プラットフォームに対する勧告を探求する。
本稿では,悪用防衛システムの設計要件を提案し,その実装におけるプライバシ,匿名性,および悪用属性の役割について議論する。
論文 参考訳(メタデータ) (2025-03-03T09:08:20Z) - The Perfect Victim: Computational Analysis of Judicial Attitudes towards
Victims of Sexual Violence [9.967491636072246]
イスラエルの裁判所制度において、性的暴力の被害者に対する司法的態度を評価するために、裁判所声明を分析するモデルを開発する。
本研究は、犯罪司法制度の性犯罪に対する対応における「強姦神話」の共鳴について、特に被害者の信頼性の司法評価において検討した。
論文 参考訳(メタデータ) (2023-05-09T09:45:44Z) - Survivor-Centered Transformative Justice: An Approach to Designing
Alongside Domestic Violence Stakeholders in US Muslim Communities [7.41157183358269]
この研究は、家庭内暴力からの援助と癒しを求める米国のムスリム女性の課題を調査する。
被害者・生存者の自主性は、虐待全体、彼らの即時コミュニティ内、および刑事司法制度にかかわるときに侵害される。
論文 参考訳(メタデータ) (2023-03-01T02:01:57Z) - Explainable Abuse Detection as Intent Classification and Slot Filling [66.80201541759409]
我々は、システムがデータ検査だけで乱用を構成する事象を確実に学習できるという非現実的な期待を捨て、政策対応による悪用検出の概念を導入する。
目的分類とスロットフィリングのためのアーキテクチャは、モデル決定の根拠を提供しながら、悪用検出にどのように使用できるかを示す。
論文 参考訳(メタデータ) (2022-10-06T03:33:30Z) - Fragments of the Past: Curating Peer Support with Perpetrators of
Domestic Violence [88.37416552778178]
我々は,過去フラグメントの設計と展開において,6人の支援労働者と18人の加害者とともに働いた10ヶ月の研究を報告した。
私たちは、暴力から脱却した経験をデジタルで強化された成果物、すなわち「フラグメント」を作ることが、メッセージのモチベーションと仲間間のラッピングをいかに翻訳するかを共有します。
これらの知見は、挑戦的な人口を持つ将来のネットワーク設計の実践的考察の基礎となる。
論文 参考訳(メタデータ) (2021-07-09T22:57:43Z) - Reporting Revenge Porn: a Preliminary Expert Analysis [0.0]
本稿では,コンテンツ共有プラットフォームにおけるリベンジポルノの乱用を報告するためのプロセスについて,予備的専門家による分析を行った。
その中には、ソーシャルネットワーク、画像ホスティングサイト、ビデオホスティングプラットフォーム、フォーラム、ポルノサイトが含まれていました。
論文 参考訳(メタデータ) (2021-06-23T08:08:59Z) - Analysing Cyberbullying using Natural Language Processing by
Understanding Jargon in Social Media [4.932130498861987]
本稿では,さまざまなソーシャルメディアプラットフォームからのデータセットの組み合わせを用いて,バイナリ分類について検討する。
我々は,Bi-LSTM,GloVe,BERTなどの最先端モデルなど複数のモデルを用いて実験を行い,スラング悪用コーパスを導入して独自の前処理手法を適用した。
論文 参考訳(メタデータ) (2021-04-23T04:20:19Z) - Detecting Harmful Content On Online Platforms: What Platforms Need Vs.
Where Research Efforts Go [44.774035806004214]
オンラインプラットフォーム上の有害コンテンツには、ヘイトスピーチ、攻撃的言語、いじめとハラスメント、誤情報、スパム、暴力、グラフィックコンテンツ、性的虐待、自己被害など、さまざまな形態がある。
オンラインプラットフォームは、そのようなコンテンツを、社会的危害を抑えるため、法律に従うために、ユーザーのためにより包括的な環境を作るために、緩和しようとしている。
現在、オンラインプラットフォームが抑制しようとしている有害なコンテンツの種類と、そのようなコンテンツを自動的に検出する研究努力との間には、隔たりがある。
論文 参考訳(メタデータ) (2021-02-27T08:01:10Z) - Sampling Attacks: Amplification of Membership Inference Attacks by
Repeated Queries [74.59376038272661]
本手法は,他の標準メンバーシップ相手と異なり,被害者モデルのスコアにアクセスできないような厳格な制限の下で動作可能な,新しいメンバーシップ推論手法であるサンプリングアタックを導入する。
ラベルのみを公開している被害者モデルでは,攻撃のサンプリングが引き続き可能であり,攻撃者はその性能の最大100%を回復できることを示す。
防衛においては,被害者モデルのトレーニング中の勾配摂動と予測時の出力摂動の形式で差分プライバシーを選択する。
論文 参考訳(メタデータ) (2020-09-01T12:54:54Z) - Quantifying the Vulnerabilities of the Online Public Square to Adversarial Manipulation Tactics [43.98568073610101]
ソーシャルメディアモデルを用いて、コンテンツの品質に対するいくつかの敵の操作戦術の影響を定量化する。
ソーシャルメディアの目印である影響力のあるアカウントの存在は、操作するオンラインコミュニティの脆弱性を悪化させる。
これらの知見は、プラットフォームがソーシャルメディアユーザーによる操作のレジリエンスを高めるために使われる可能性があることを示唆している。
論文 参考訳(メタデータ) (2019-07-13T21:12:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。