論文の概要: Stop the Nonconsensual Use of Nude Images in Research
- arxiv url: http://arxiv.org/abs/2510.22423v1
- Date: Sat, 25 Oct 2025 19:57:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 15:28:15.193954
- Title: Stop the Nonconsensual Use of Nude Images in Research
- Title(参考訳): 研究におけるヌード画像の非合意利用の停止
- Authors: Princessa Cintaqia, Arshia Arya, Elissa M Redmiles, Deepak Kumar, Allison McDonald, Lucy Qin,
- Abstract要約: 本稿では,非合意に収集されたヌード画像の研究者による分布は,画像に基づく性的虐待を持続させると主張している。
我々は,ヌード画像の収集・使用を行う計算施設で発行された論文の体系的レビューを行った。
ヌード画像の使用に関する規範は不十分であり、多くの問題のあるプラクティスにつながります。
- 参考スコア(独自算出の注目度): 17.896164393245954
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In order to train, test, and evaluate nudity detection models, machine learning researchers typically rely on nude images scraped from the Internet. Our research finds that this content is collected and, in some cases, subsequently distributed by researchers without consent, leading to potential misuse and exacerbating harm against the subjects depicted. This position paper argues that the distribution of nonconsensually collected nude images by researchers perpetuates image-based sexual abuse and that the machine learning community should stop the nonconsensual use of nude images in research. To characterize the scope and nature of this problem, we conducted a systematic review of papers published in computing venues that collect and use nude images. Our results paint a grim reality: norms around the usage of nude images are sparse, leading to a litany of problematic practices like distributing and publishing nude images with uncensored faces, and intentionally collecting and sharing abusive content. We conclude with a call-to-action for publishing venues and a vision for research in nudity detection that balances user agency with concrete research objectives.
- Abstract(参考訳): ヌード検出モデルを訓練し、テストし、評価するために、機械学習研究者は通常、インターネットから取り除かれたヌード画像に依存している。
我々の研究は、この内容が収集され、場合によっては、研究者によって無同意で配布され、潜在的に誤用され、被写体に対する害が悪化することを発見した。
本論では,非合意に収集されたヌード画像の分布は,画像に基づく性的虐待を継続し,機械学習コミュニティは研究におけるヌード画像の非合意使用を阻止すべきであると主張している。
この問題のスコープと性質を特徴付けるため,我々は,ヌード画像の収集と使用を行う計算施設で発行された論文の体系的レビューを行った。
ヌード画像の使用に関する規範は不十分であり、ヌード画像を無検閲の顔で配布・公開したり、故意に乱用されたコンテンツを収集・共有したりといった問題の多いプラクティスにつながります。
本稿は,ユーザエージェンシーと具体的な研究目標のバランスをとるヌード検出研究への取り組みをまとめる。
関連論文リスト
- Analyzing the AI Nudification Application Ecosystem [28.065263900272747]
被服者(画像被写体)の原像が与えられた場合、AIベースのヌードアプリケーションは、その人物のヌード(無ストレス)画像を生成することができる。
実世界において、画像の主題の同意なく、そのような応用が用いられているという証拠は豊富である。
本研究は,20の有名かつ手軽なヌードWebサイトに焦点を当てた。
論文 参考訳(メタデータ) (2024-11-14T19:05:47Z) - An Art-centric perspective on AI-based content moderation of nudity [27.514873931391826]
芸術的ヌード分類を改善するマルチモーダルゼロショット分類手法を提案する。
我々は経験的に、男女の存在と様式的偏見、そして明らかな技術的な制限を明らかにした。
本研究から,今後の研究に期待できるいくつかの示唆が得られた。
論文 参考訳(メタデータ) (2024-09-10T12:23:06Z) - Invisible Relevance Bias: Text-Image Retrieval Models Prefer AI-Generated Images [67.18010640829682]
我々は,AI生成画像がテキスト画像検索モデルに目に見えない関連性バイアスをもたらすことを示す。
検索モデルのトレーニングデータにAI生成画像を含めると、目に見えない関連性バイアスが増す。
本研究では,目に見えない関連バイアスを軽減するための効果的なトレーニング手法を提案する。
論文 参考訳(メタデータ) (2023-11-23T16:22:58Z) - DIAGNOSIS: Detecting Unauthorized Data Usages in Text-to-image Diffusion Models [79.71665540122498]
保護されたデータセットにインジェクトされたコンテンツを配置することで、不正なデータ利用を検出する手法を提案する。
具体的には、ステルス画像ワープ機能を用いて、これらの画像にユニークな内容を追加することにより、保護された画像を修正する。
このモデルが注入されたコンテンツを記憶したかどうかを解析することにより、不正に不正に使用したモデルを検出することができる。
論文 参考訳(メタデータ) (2023-07-06T16:27:39Z) - Contrastive Language-Vision AI Models Pretrained on Web-Scraped
Multimodal Data Exhibit Sexual Objectification Bias [11.6727088473067]
ウェブスクラップで訓練された言語ビジョンAIモデルは、性的対象化のバイアスを学ぶ。
女性プロのイメージは、男性プロのイメージと比較して性描写と関連している可能性が高い。
論文 参考訳(メタデータ) (2022-12-21T18:54:19Z) - Fighting Malicious Media Data: A Survey on Tampering Detection and
Deepfake Detection [115.83992775004043]
近年のディープラーニング、特に深層生成モデルの発展により、知覚的に説得力のある画像や動画を低コストで制作するための扉が開かれた。
本稿では,現在のメディアタンパリング検出手法を概観し,今後の研究の課題と動向について論じる。
論文 参考訳(メタデータ) (2022-12-12T02:54:08Z) - VIPPrint: A Large Scale Dataset of Printed and Scanned Images for
Synthetic Face Images Detection and Source Linking [26.02960434287235]
本稿では,多数の合成顔画像と天然顔画像からなる新しいデータセットを提案する。
印刷およびスキャン画像に適用すると、自然顔画像と合成顔画像を区別する最先端の方法が失敗することを確認します。
論文 参考訳(メタデータ) (2021-02-01T13:00:29Z) - Improving Object Detection with Selective Self-supervised Self-training [62.792445237541145]
本研究では,Web画像を利用した人為的対象検出データセットの強化について検討する。
画像と画像の検索によりWebイメージを検索し、他の検索手法に比べて、キュレートされたデータからのドメインシフトが少なくなる。
画像分類のためのラベルのないデータを探索する2つの並列処理をモチベーションとした新しい学習手法を提案する。
論文 参考訳(メタデータ) (2020-07-17T18:05:01Z) - Large image datasets: A pyrrhic win for computer vision? [2.627046865670577]
大規模ビジョンデータセットの問題点と結果について検討する。
我々は,同意や正義の問題などの幅広い問題や,データセットに検証可能なポルノ画像を含めるといった特定の懸念について検討する。
論文 参考訳(メタデータ) (2020-06-24T06:41:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。