論文の概要: It is not Sexually Suggestive, It is Educative. Separating Sex Education
from Suggestive Content on TikTok Videos
- arxiv url: http://arxiv.org/abs/2307.03274v1
- Date: Thu, 6 Jul 2023 20:23:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-10 14:06:45.607239
- Title: It is not Sexually Suggestive, It is Educative. Separating Sex Education
from Suggestive Content on TikTok Videos
- Title(参考訳): 性的に推奨的ではなく、教育的だ。
tiktokビデオにおける性教育と提案コンテンツの分離
- Authors: Enfa George, Mihai Surdeanu
- Abstract要約: SexTokは、TikTokビデオからなるデータセットで、(アノテータの観点から)性的な示唆、性教育的な内容、あるいはどちらでもないものとラベル付けされている。
子どもの性的に示唆的なビデオへの露出は、その発達に敵対的な影響を及ぼすことが示されている。
バーチャルセックス教育、特にLGBTQIA+コミュニティとより関係のあるテーマは、非常に貴重である。
- 参考スコア(独自算出の注目度): 22.870334358353585
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce SexTok, a multi-modal dataset composed of TikTok videos labeled
as sexually suggestive (from the annotator's point of view), sex-educational
content, or neither. Such a dataset is necessary to address the challenge of
distinguishing between sexually suggestive content and virtual sex education
videos on TikTok. Children's exposure to sexually suggestive videos has been
shown to have adversarial effects on their development. Meanwhile, virtual sex
education, especially on subjects that are more relevant to the LGBTQIA+
community, is very valuable. The platform's current system removes or penalizes
some of both types of videos, even though they serve different purposes. Our
dataset contains video URLs, and it is also audio transcribed. To validate its
importance, we explore two transformer-based models for classifying the videos.
Our preliminary results suggest that the task of distinguishing between these
types of videos is learnable but challenging. These experiments suggest that
this dataset is meaningful and invites further study on the subject.
- Abstract(参考訳): sextokは、tiktokの動画を(注釈者の視点から)性的に示唆する、性教育的なコンテンツ、あるいはその両方とラベル付けしたマルチモーダルデータセットである。
このようなデータセットは、TikTok上の性的な推奨コンテンツと仮想性教育ビデオの区別という課題に対処するために必要である。
子どもの性的な示唆的なビデオへの露出は、その発達に逆効果があることが示されている。
一方、バーチャルセックス教育、特にLGBTQIA+コミュニティとより関係のあるテーマは、非常に貴重である。
プラットフォームの現在のシステムは、異なる目的のために、両方のタイプのビデオの一部を削除またはペナルティ化する。
私たちのデータセットにはビデオURLが含まれています。
その重要性を検証するために,ビデオの分類のための2つのトランスフォーマーモデルを検討する。
予備的な結果は、これらのタイプの動画を区別する作業は学習可能であるが難しいことを示唆している。
これらの実験は、このデータセットが有意義であることを示唆している。
関連論文リスト
- Dense Video Captioning: A Survey of Techniques, Datasets and Evaluation
Protocols [53.706461356853445]
アントリムされたビデオには、関連のあるイベント、依存関係、コンテキスト、重複するイベント、オブジェクトとオブジェクトのインタラクション、ドメインの特異性、その他の説明に値するセマンティクスがある。
ビデオキャプション(DVC)は、特定のビデオ内の異なるイベントを検出し、記述することを目的としている。
論文 参考訳(メタデータ) (2023-11-05T01:45:31Z) - A deep-learning approach to early identification of suggested sexual
harassment from videos [0.802904964931021]
セクシュアルハラスメント、性的虐待、性的暴力はこの日と年齢でよく見られる問題である。
我々はこれらの状況を描写した画像に現れる視覚的特徴に基づいて3つの用語(嫌がらせ、虐待、暴力)を分類した。
その結果,被害者の表情や加害者の表情,不必要な触覚などの要因が,シーンの識別に直接関係していることが判明した。
これらの定義と特徴に基づいて,インド映画シーンのファースト・オブ・ザ・キンド・データセットを開発した。
論文 参考訳(メタデータ) (2023-06-01T16:14:17Z) - How Would The Viewer Feel? Estimating Wellbeing From Video Scenarios [73.24092762346095]
情緒応答と主観的幸福感に注釈を付けた6万本以上のビデオを備えた大規模データセットを2つ導入した。
Video Cognitive Empathyデータセットには、微粒な感情応答の分布のためのアノテーションが含まれており、モデルが感情状態の詳細な理解を得ることができる。
Video to Valenceデータセットには、ビデオ間の相対的な快適性のアノテーションが含まれている。
論文 参考訳(メタデータ) (2022-10-18T17:58:25Z) - Self-Supervised Learning for Videos: A Survey [70.37277191524755]
自己教師型学習は、画像ドメインとビデオドメインの両方で有望である。
本稿では,ビデオ領域に着目した自己教師型学習における既存のアプローチについて概観する。
論文 参考訳(メタデータ) (2022-06-18T00:26:52Z) - Boosting Video Representation Learning with Multi-Faceted Integration [112.66127428372089]
ビデオコンテンツは多面的であり、オブジェクト、シーン、インタラクション、アクションで構成されている。
既存のデータセットは、主にモデルトレーニングのファセットの1つだけをラベル付けする。
我々は,ビデオコンテンツの全スペクトルを反映した表現を学習するために,異なるデータセットから顔データを集約する,MUFI(MUlti-Faceted Integration)という新たな学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-01-11T16:14:23Z) - Characterizing Abhorrent, Misinformative, and Mistargeted Content on
YouTube [1.9138099871648453]
本稿では,YouTube上の問題コンテンツの度合いと,そのようなコンテンツの拡散における推奨アルゴリズムの役割について検討する。
分析の結果,幼児はランダムにプラットフォームを閲覧すると乱雑なコンテンツに遭遇する可能性が示唆された。
インセルの活動は時間とともに増加しており、プラットフォームはユーザーを極端なコンテンツへと導く上で積極的な役割を果たす可能性がある。
論文 参考訳(メタデータ) (2021-05-20T15:10:48Z) - Watch and Learn: Mapping Language and Noisy Real-world Videos with
Self-supervision [54.73758942064708]
我々は、明示的なアノテーションを使わずに、文章と騒々しいビデオスニペットのマッピングを学習することで、視覚と自然言語を理解するように機械に教える。
トレーニングと評価のために、多数のオンラインビデオとサブタイトルを含む新しいデータセットApartmenTourをコントリビュートする。
論文 参考訳(メタデータ) (2020-11-19T03:43:56Z) - Classification of Important Segments in Educational Videos using
Multimodal Features [10.175871202841346]
本稿では,最先端の音声・視覚・テキスト機能を利用したマルチモーダルニューラルアーキテクチャを提案する。
本実験では,視覚的・時間的情報の影響と,重大予測に対するマルチモーダル特徴の組み合わせについて検討した。
論文 参考訳(メタデータ) (2020-10-26T14:40:23Z) - Beyond Instructional Videos: Probing for More Diverse Visual-Textual
Grounding on YouTube [35.32213834577941]
未探索の動画カテゴリで視覚的テキストのグラウンド化が可能であることを示す。
より多様な集合に対する事前学習は、非命令的領域と命令的領域の両方に一般化する表現をもたらす。
論文 参考訳(メタデータ) (2020-04-29T17:10:10Z) - VIOLIN: A Large-Scale Dataset for Video-and-Language Inference [103.7457132841367]
ビデオとテキストのマルチモーダル理解のための新しいタスク, Video-and-Language Inferenceを導入する。
サブタイトルを前提としたビデオクリップと、そのビデオコンテンツに基づいて自然言語仮説とをペアリングすると、モデルは、その仮説が所定のビデオクリップに関連付けられているか、矛盾しているかを推測する必要がある。
このタスクには、Violin(VIdeO-and-Language Inference)という名の新しい大規模データセットが導入された。
論文 参考訳(メタデータ) (2020-03-25T20:39:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。