論文の概要: Detection of Cyberbullying in GIF using AI
- arxiv url: http://arxiv.org/abs/2512.07838v1
- Date: Sat, 15 Nov 2025 00:46:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-15 04:16:52.502911
- Title: Detection of Cyberbullying in GIF using AI
- Title(参考訳): AIを用いたGIFにおけるサイバブリングの検出
- Authors: Pal Dave, Xiaohong Yuan, Madhuri Siddula, Kaushik Roy,
- Abstract要約: ソーシャルメディア上では、テキストメッセージ、コメント、画像、GIFまたはステッカーの共有、オーディオとビデオが使用される。
GIFやステッカーでサイバーいじめを検出する研究はほとんどない。
われわれはTwitterからGIFデータセットを収集し、データセットからサイバーいじめを検出するためのディープラーニングモデルを適用した。
- 参考スコア(独自算出の注目度): 6.404762820001178
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Cyberbullying is a well-known social issue, and it is escalating day by day. Due to the vigorous development of the internet, social media provide many different ways for the user to express their opinions and exchange information. Cyberbullying occurs on social media using text messages, comments, sharing images and GIFs or stickers, and audio and video. Much research has been done to detect cyberbullying on textual data; some are available for images. Very few studies are available to detect cyberbullying on GIFs/stickers. We collect a GIF dataset from Twitter and Applied a deep learning model to detect cyberbullying from the dataset. Firstly, we extracted hashtags related to cyberbullying using Twitter. We used these hashtags to download GIF file using publicly available API GIPHY. We collected over 4100 GIFs including cyberbullying and non cyberbullying. we applied deep learning pre-trained model VGG16 for the detection of the cyberbullying. The deep learning model achieved the accuracy of 97%. Our work provides the GIF dataset for researchers working in this area.
- Abstract(参考訳): サイバーいじめはよく知られた社会問題であり、日々エスカレートしている。
インターネットの活発な発展により、ソーシャルメディアはユーザーが意見を表明し情報を交換する様々な方法を提供している。
ソーシャルメディア上では、テキストメッセージ、コメント、画像とGIFまたはステッカーの共有、オーディオとビデオが使用されている。
テキストデータによるサイバーいじめを検出するために、多くの研究がなされている。
GIFやステッカーでサイバーいじめを検出する研究はほとんどない。
われわれはTwitterからGIFデータセットを収集し、データセットからサイバーいじめを検出するためのディープラーニングモデルを適用した。
まず,Twitterを用いてサイバーいじめに関連するハッシュタグを抽出した。
私たちはこれらのハッシュタグを使って、公開API GIPHYを使ってGIFファイルをダウンロードしました。
われわれは、サイバーいじめやノンサイバーいじめを含む4100以上のGIFを収集した。
深層学習事前学習モデルVGG16を用いて,サイバーバブルの検出を行った。
ディープラーニングモデルは97%の精度を達成した。
私たちの研究は、この領域で働く研究者のためのGIFデータセットを提供しています。
関連論文リスト
- Detecting harassment and defamation in cyberbullying with emotion-adaptive training [10.769252194833625]
サイバーいじめはデニグレーションやハラスメントなどの様々な形態を含み、有名人がしばしば直面する。
まず、ハラスメントと非難という2つの異なるタイプのインシデントを含む有名人のサイバーいじめデータセットを開発する。
本稿では,感情検出領域からサイバーいじめ検出領域への知識伝達を支援する感情適応トレーニングフレームワーク(EAT)を提案する。
論文 参考訳(メタデータ) (2025-01-28T13:15:07Z) - Sentiment Analysis of Cyberbullying Data in Social Media [0.0]
我々の研究は、ソーシャルメディア投稿におけるいじめの痕跡を検出するために、ディープラーニングと自然言語理解技術を活用することに焦点を当てている。
1つのアプローチではBERT埋め込みを使用し、もう1つはOpenAIから最近リリースされた埋め込みAPIに埋め込みレイヤを置き換える。
フォームスプリング型サイバーバブルデータにおける感情分析の有効性を評価するために,これらの2つの手法の性能比較を行った。
論文 参考訳(メタデータ) (2024-11-08T20:41:04Z) - Detecting LGBTQ+ Instances of Cyberbullying [3.5723815685584013]
サイバーいじめは、世界中の青少年にとって重大な脅威となる。
LGBTQ+のコミュニティは特に危険にさらされており、研究者はLGBTQ+の特定とオンラインハラスメントの増大との間に強い相関関係があることを発見した。
LGBTQ+のメンバーに起きたサイバーいじめ事件を正確に識別できる機械学習モデルを開発することは重要である。
論文 参考訳(メタデータ) (2024-09-18T18:49:55Z) - Securing Social Spaces: Harnessing Deep Learning to Eradicate Cyberbullying [1.8749305679160366]
サイバーいじめは ソーシャルメディアを使う人の心身の健康を害する深刻な問題だ
本稿は、サイバーいじめがいかに深刻か、そしてそれが被曝した個人にどのように影響するかを説明する。
オンライン空間の安全性を高めるために、より優れたサイバーいじめ検出方法を見つけることがいかに重要かを強調している。
論文 参考訳(メタデータ) (2024-04-01T20:41:28Z) - Meme-ingful Analysis: Enhanced Understanding of Cyberbullying in Memes
Through Multimodal Explanations [48.82168723932981]
Em MultiBully-Exは、コード混在型サイバーいじめミームからマルチモーダルな説明を行うための最初のベンチマークデータセットである。
ミームの視覚的およびテキスト的説明のために,コントラスト言語-画像事前学習 (CLIP) アプローチが提案されている。
論文 参考訳(メタデータ) (2024-01-18T11:24:30Z) - Explain Thyself Bully: Sentiment Aided Cyberbullying Detection with
Explanation [52.3781496277104]
さまざまなソーシャルメディアネットワークやオンラインコミュニケーションアプリの人気により、サイバーいじめが大きな問題になっている。
一般データ保護規則の「説明の権利」のような近年の法律は、解釈可能なモデルの開発に拍車をかけた。
我々は,コード混在言語からの自動サイバーバブル検出のための,mExCBと呼ばれる最初の解釈可能なマルチタスクモデルを開発した。
論文 参考訳(メタデータ) (2024-01-17T07:36:22Z) - A Secure Open-Source Intelligence Framework For Cyberbullying
Investigation [0.0]
本稿では,Twitterのデータを用いたオープンソースのインテリジェンスパイプラインを提案する。
リアルタイム監視を備えたOSINTダッシュボードは、法執行機関が迅速に行動し、被害者を保護し、より安全なオンライン環境を構築するための大きな努力をすることができる。
論文 参考訳(メタデータ) (2023-07-27T23:03:57Z) - DISARM: Detecting the Victims Targeted by Harmful Memes [49.12165815990115]
DISARMは、有害なミームを検出するために名前付きエンティティ認識と個人識別を使用するフレームワークである。
DISARMは10の単一モーダル・マルチモーダルシステムより著しく優れていることを示す。
複数の強力なマルチモーダルライバルに対して、有害なターゲット識別の相対誤差率を最大9ポイントまで下げることができる。
論文 参考訳(メタデータ) (2022-05-11T19:14:26Z) - LFW-Beautified: A Dataset of Face Images with Beautification and
Augmented Reality Filters [53.180678723280145]
いくつかの操作を含む顔画像のデータベースにコントリビュートする。
画像強調フィルター(コントラストや稲妻を主に修正する)や、動物の鼻や眼鏡などのアイテムを組み込んだ拡張現実フィルターが含まれている。
各データセットには、64×64の4,324枚の画像があり、合計34,592枚の画像がある。
論文 参考訳(メタデータ) (2022-03-11T17:05:10Z) - Detecting Damage Building Using Real-time Crowdsourced Images and
Transfer Learning [53.26496452886417]
本稿では,Twitterなどのソーシャルメディアプラットフォームから地震後の建物画像を自動的に抽出する手法を提案する。
トランスファーラーニングと6500枚の手動ラベル付き画像を用いて,現場に損傷のある建物を画像として認識する深層学習モデルを訓練した。
訓練されたモデルは、異なる場所で新たに取得した地震の画像でテストし、トルコのM7.0地震の後、Twitterのフィードでほぼリアルタイムで実行された。
論文 参考訳(メタデータ) (2021-10-12T06:31:54Z) - Improving Object Detection with Selective Self-supervised Self-training [62.792445237541145]
本研究では,Web画像を利用した人為的対象検出データセットの強化について検討する。
画像と画像の検索によりWebイメージを検索し、他の検索手法に比べて、キュレートされたデータからのドメインシフトが少なくなる。
画像分類のためのラベルのないデータを探索する2つの並列処理をモチベーションとした新しい学習手法を提案する。
論文 参考訳(メタデータ) (2020-07-17T18:05:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。