論文の概要: A deep-learning approach to early identification of suggested sexual
harassment from videos
- arxiv url: http://arxiv.org/abs/2306.00856v1
- Date: Thu, 1 Jun 2023 16:14:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-02 14:49:40.477014
- Title: A deep-learning approach to early identification of suggested sexual
harassment from videos
- Title(参考訳): ビデオからの性的嫌がらせの早期発見のための深層学習アプローチ
- Authors: Shreya Shetye, Anwita Maiti, Tannistha Maiti and Tarry Singh
- Abstract要約: セクシュアルハラスメント、性的虐待、性的暴力はこの日と年齢でよく見られる問題である。
我々はこれらの状況を描写した画像に現れる視覚的特徴に基づいて3つの用語(嫌がらせ、虐待、暴力)を分類した。
その結果,被害者の表情や加害者の表情,不必要な触覚などの要因が,シーンの識別に直接関係していることが判明した。
これらの定義と特徴に基づいて,インド映画シーンのファースト・オブ・ザ・キンド・データセットを開発した。
- 参考スコア(独自算出の注目度): 0.802904964931021
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sexual harassment, sexual abuse, and sexual violence are prevalent problems
in this day and age. Women's safety is an important issue that needs to be
highlighted and addressed. Given this issue, we have studied each of these
concerns and the factors that affect it based on images generated from movies.
We have classified the three terms (harassment, abuse, and violence) based on
the visual attributes present in images depicting these situations. We
identified that factors such as facial expression of the victim and perpetrator
and unwanted touching had a direct link to identifying the scenes containing
sexual harassment, abuse and violence. We also studied and outlined how
state-of-the-art explicit content detectors such as Google Cloud Vision API and
Clarifai API fail to identify and categorise these images. Based on these
definitions and characteristics, we have developed a first-of-its-kind dataset
from various Indian movie scenes. These scenes are classified as sexual
harassment, sexual abuse, or sexual violence and exported in the PASCAL VOC 1.1
format. Our dataset is annotated on the identified relevant features and can be
used to develop and train a deep-learning computer vision model to identify
these issues. The dataset is publicly available for research and development.
- Abstract(参考訳): セクシュアルハラスメント、性的虐待、性的暴力はこの日と年齢で一般的な問題である。
女性の安全は強調され、対処する必要がある重要な問題である。
この問題を踏まえ,映画から生成された画像に基づいて,これらの懸念と影響要因について検討した。
我々は,これらの状況を描いた画像における視覚的属性に基づいて,3つの用語(ハラスメント,虐待,暴力)を分類した。
被害者や加害者の顔の表情や不必要な触感などの要因は、セクハラや虐待、暴力などを含む場面と直接関連していることが明らかとなった。
また、Google Cloud Vision APIやCrarifai APIのような最先端の明示的なコンテンツ検出ツールが、これらのイメージを識別して分類できないか、調査し、概説した。
これらの定義と特徴に基づき,様々なインド映画シーンから最初のits-kindデータセットを開発した。
これらのシーンは性的嫌がらせ、性的虐待、性的暴力に分類され、PASCAL VOC 1.1フォーマットでエクスポートされる。
当社のデータセットは、特定された関連する機能にアノテートされており、これらの問題を特定するためにディープラーニングコンピュータビジョンモデルの開発とトレーニングに使用できます。
データセットは、研究と開発のために公開されている。
関連論文リスト
- Anonymization Prompt Learning for Facial Privacy-Preserving Text-to-Image Generation [56.46932751058042]
我々は、テキストから画像への拡散モデルのための学習可能なプロンプトプレフィックスをトレーニングし、匿名化された顔のアイデンティティを生成するよう強制する。
実験では,非同一性固有の画像生成の品質を損なうことなく,特定の個人を匿名化するAPLの匿名化性能を実証した。
論文 参考訳(メタデータ) (2024-05-27T07:38:26Z) - "Did They F***ing Consent to That?": Safer Digital Intimacy via Proactive Protection Against Image-Based Sexual Abuse [12.424265801615322]
成人10人に8人がヌード画像やリュード画像などの親密な内容を共有している。
態度の厳格化と技術的な緩和の欠如は、そのようなコンテンツをシェアする人々を性的暴力のリスクに晒した。
論文 参考訳(メタデータ) (2024-03-07T17:04:55Z) - It is not Sexually Suggestive, It is Educative. Separating Sex Education
from Suggestive Content on TikTok Videos [22.870334358353585]
SexTokは、TikTokビデオからなるデータセットで、(アノテータの観点から)性的な示唆、性教育的な内容、あるいはどちらでもないものとラベル付けされている。
子どもの性的に示唆的なビデオへの露出は、その発達に敵対的な影響を及ぼすことが示されている。
バーチャルセックス教育、特にLGBTQIA+コミュニティとより関係のあるテーマは、非常に貴重である。
論文 参考訳(メタデータ) (2023-07-06T20:23:17Z) - Contrastive Language-Vision AI Models Pretrained on Web-Scraped
Multimodal Data Exhibit Sexual Objectification Bias [11.6727088473067]
ウェブスクラップで訓練された言語ビジョンAIモデルは、性的対象化のバイアスを学ぶ。
女性プロのイメージは、男性プロのイメージと比較して性描写と関連している可能性が高い。
論文 参考訳(メタデータ) (2022-12-21T18:54:19Z) - Fighting Malicious Media Data: A Survey on Tampering Detection and
Deepfake Detection [115.83992775004043]
近年のディープラーニング、特に深層生成モデルの発展により、知覚的に説得力のある画像や動画を低コストで制作するための扉が開かれた。
本稿では,現在のメディアタンパリング検出手法を概観し,今後の研究の課題と動向について論じる。
論文 参考訳(メタデータ) (2022-12-12T02:54:08Z) - CoSIm: Commonsense Reasoning for Counterfactual Scene Imagination [87.4797527628459]
我々はCoSIm(Comonsense Reasoning for Counterfactual Scene Imagination)と呼ばれる新しいタスク/データセットを導入する。
CoSImは、シーン変更の想像力を推論するAIシステムの能力を評価するように設計されている。
論文 参考訳(メタデータ) (2022-07-08T15:28:23Z) - Leveraging Real Talking Faces via Self-Supervision for Robust Forgery
Detection [112.96004727646115]
本研究では,実話を用いた顔操作映像の検出手法を開発した。
本手法は, クロスマニピュレーションの一般化とロバストネス実験における最先端性能を実現する。
以上の結果から、より堅牢な顔偽造検知器の開発には、自然ビデオと未表示ビデオの活用が有望な方向であることが示唆された。
論文 参考訳(メタデータ) (2022-01-18T17:14:54Z) - Reporting Revenge Porn: a Preliminary Expert Analysis [0.0]
本稿では,コンテンツ共有プラットフォームにおけるリベンジポルノの乱用を報告するためのプロセスについて,予備的専門家による分析を行った。
その中には、ソーシャルネットワーク、画像ホスティングサイト、ビデオホスティングプラットフォーム、フォーラム、ポルノサイトが含まれていました。
論文 参考訳(メタデータ) (2021-06-23T08:08:59Z) - Enhancing Unsupervised Video Representation Learning by Decoupling the
Scene and the Motion [86.56202610716504]
アクションカテゴリは、アクションが発生するシーンと非常に関連しているため、モデルが、シーン情報のみを符号化したソリューションに分解する傾向がある。
本稿では,シーンと動き(DSM)を2つの簡単な操作で分離し,動き情報に対するモデル注意がより高いようにすることを提案する。
論文 参考訳(メタデータ) (2020-09-12T09:54:11Z) - Large image datasets: A pyrrhic win for computer vision? [2.627046865670577]
大規模ビジョンデータセットの問題点と結果について検討する。
我々は,同意や正義の問題などの幅広い問題や,データセットに検証可能なポルノ画像を含めるといった特定の懸念について検討する。
論文 参考訳(メタデータ) (2020-06-24T06:41:32Z) - #MeToo on Campus: Studying College Sexual Assault at Scale Using Data
Reported on Social Media [71.74529365205053]
我々は、#トレンドが大学フォロワーのプールに与える影響を分析した。
その結果、これらの#ツイートに埋め込まれたトピックの大部分は、セクシャルハラスメントのストーリーを詳述している。
この傾向といくつかの主要地理的地域に関する公式な報告との間には大きな相関関係がある。
論文 参考訳(メタデータ) (2020-01-16T18:05:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。