論文の概要: "Violation of my body:" Perceptions of AI-generated non-consensual (intimate) imagery
- arxiv url: http://arxiv.org/abs/2406.05520v1
- Date: Sat, 8 Jun 2024 16:57:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-11 19:16:08.554189
- Title: "Violation of my body:" Perceptions of AI-generated non-consensual (intimate) imagery
- Title(参考訳): 「身体の暴力」:AIによる非合意的(親密な)イメージの知覚
- Authors: Natalie Grace Brigham, Miranda Wei, Tadayoshi Kohno, Elissa M. Redmiles,
- Abstract要約: AI技術は、超現実的な合成メディアであるディープフェイクの作成を可能にした。
我々は米国の315人の個人を対象に、それらを描いたディープフェイクの仮説的非合意創造に関する彼らの見解を調査した。
- 参考スコア(独自算出の注目度): 22.68931586977199
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: AI technology has enabled the creation of deepfakes: hyper-realistic synthetic media. We surveyed 315 individuals in the U.S. on their views regarding the hypothetical non-consensual creation of deepfakes depicting them, including deepfakes portraying sexual acts. Respondents indicated strong opposition to creating and, even more so, sharing non-consensually created synthetic content, especially if that content depicts a sexual act. However, seeking out such content appeared more acceptable to some respondents. Attitudes around acceptability varied further based on the hypothetical creator's relationship to the participant, the respondent's gender and their attitudes towards sexual consent. This study provides initial insight into public perspectives of a growing threat and highlights the need for further research to inform social norms as well as ongoing policy conversations and technical developments in generative AI.
- Abstract(参考訳): AI技術は、超現実的な合成メディアであるディープフェイクの作成を可能にした。
我々は,性行為を描写するディープフェイクを含む,ディープフェイクを描写する仮説的な非合意的なディープフェイクの作成について,米国の315人の個人を調査した。
レスポンデントは、特にその内容が性行為を描写している場合、非合意に作られた合成コンテンツを共有することに強く反対した。
しかし、そのようなコンテンツを探すことは、一部の回答者にとってより受け入れがたいように思われた。
受容性に関する態度は、仮説作成者と参加者との関係、応答者の性別、性的な同意に対する態度によってさらに変化した。
この研究は、増大する脅威に対する公衆の見解に関する最初の洞察を提供し、社会規範を伝えるためのさらなる研究の必要性と、現在進行中の政策会話や、生成的AIの技術的発展を強調している。
関連論文リスト
- Human Bias in the Face of AI: The Role of Human Judgement in AI Generated Text Evaluation [48.70176791365903]
本研究では、偏見がAIと人為的コンテンツの知覚をどう形成するかを考察する。
ラベル付きおよびラベルなしコンテンツに対するヒトのラッカーの反応について検討した。
論文 参考訳(メタデータ) (2024-09-29T04:31:45Z) - Deepfake Media Forensics: State of the Art and Challenges Ahead [51.33414186878676]
AIが生成する合成メディア、別名Deepfakesは、エンターテイメントからサイバーセキュリティまで、多くの領域に影響を与えている。
ディープフェイク検出は、微妙な矛盾やアーティファクトを機械学習技術で識別することに焦点を当て、研究の不可欠な領域となっている。
本稿では,これらの課題に対処する主要なアルゴリズムについて,その利点,限界,今後の展望について検討する。
論文 参考訳(メタデータ) (2024-08-01T08:57:47Z) - She Works, He Works: A Curious Exploration of Gender Bias in AI-Generated Imagery [0.0]
本稿では, 建設作業員のAI画像における性別バイアスについて検討し, 男女の描写における相違点を明らかにする。
この分析は、グリセルダ・ポロックの視覚文化とジェンダーの理論に基づいており、AIモデルは女性の人物をより権威的で有能な人物として描写しながらセクシュアライズする傾向があることを示している。
論文 参考訳(メタデータ) (2024-07-26T05:56:18Z) - Unmasking Illusions: Understanding Human Perception of Audiovisual Deepfakes [49.81915942821647]
本研究は,ディープフェイク映像を主観的研究により識別する人間の能力を評価することを目的とする。
人間の観察者を5つの最先端オーディオ視覚深度検出モデルと比較することにより,その知見を提示する。
同じ40の動画で評価すると、すべてのAIモデルは人間より優れていることが分かりました。
論文 参考訳(メタデータ) (2024-05-07T07:57:15Z) - "Did They F***ing Consent to That?": Safer Digital Intimacy via Proactive Protection Against Image-Based Sexual Abuse [12.424265801615322]
成人10人に8人がヌード画像やリュード画像などの親密な内容を共有している。
態度の厳格化と技術的な緩和の欠如は、そのようなコンテンツをシェアする人々を性的暴力のリスクに晒した。
論文 参考訳(メタデータ) (2024-03-07T17:04:55Z) - Non-Consensual Synthetic Intimate Imagery: Prevalence, Attitudes, and
Knowledge in 10 Countries [0.0]
ディープフェイク技術はユビキタスになり、写真やビデオの操作を「民主化」している。
ディープフェイク技術がよく使われるのは、性的に露骨なコンテンツを作ることで、インターネット上で広く投稿され、共有される。
本稿では,非合意型総合画像(NSII)の特定形態としての「ディープフェイクポルノ」に関する態度と行動について考察する。
論文 参考訳(メタデータ) (2024-01-26T21:51:49Z) - Exploring outlooks towards generative AI-based assistive technologies
for people with Autism [2.5382095320488665]
我々は、Nvdiaの新しいビデオ会議機能に関するRedditの会話を調査した。
自閉症患者に対する技術の有効性と適切性について議論した162の関連コメントが得られた。
我々は、生成型AIベースの補助ソリューションの開発が、人間とコンピュータの相互作用に影響を及ぼすことを示唆する。
論文 参考訳(メタデータ) (2023-05-16T21:39:38Z) - Can Workers Meaningfully Consent to Workplace Wellbeing Technologies? [65.15780777033109]
本稿では、職場の福祉技術に同意する労働者が直面する課題を解き放つ。
我々は、労働者が「意味のない」同意に対して脆弱であることを示す。
参加者は、テクノロジーとテクノロジーを取り巻く政策や実践の変更を、意味のある同意を得るために望んだ。
論文 参考訳(メタデータ) (2023-03-13T16:15:07Z) - How well can Text-to-Image Generative Models understand Ethical Natural
Language Interventions? [67.97752431429865]
倫理的介入を加える際の画像の多様性への影響について検討した。
予備研究は、モデル予測の大きな変化が「性別の無視」のような特定のフレーズによって引き起こされることを示している。
論文 参考訳(メタデータ) (2022-10-27T07:32:39Z) - How Would The Viewer Feel? Estimating Wellbeing From Video Scenarios [73.24092762346095]
情緒応答と主観的幸福感に注釈を付けた6万本以上のビデオを備えた大規模データセットを2つ導入した。
Video Cognitive Empathyデータセットには、微粒な感情応答の分布のためのアノテーションが含まれており、モデルが感情状態の詳細な理解を得ることができる。
Video to Valenceデータセットには、ビデオ間の相対的な快適性のアノテーションが含まれている。
論文 参考訳(メタデータ) (2022-10-18T17:58:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。