論文の概要: DeHate: A Stable Diffusion-based Multimodal Approach to Mitigate Hate Speech in Images
- arxiv url: http://arxiv.org/abs/2509.21787v1
- Date: Fri, 26 Sep 2025 02:42:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.13446
- Title: DeHate: A Stable Diffusion-based Multimodal Approach to Mitigate Hate Speech in Images
- Title(参考訳): DeHate: 画像中のヘイトスピーチを緩和するための安定拡散に基づくマルチモーダルアプローチ
- Authors: Dwip Dalal, Gautam Vashishtha, Anku Ranui, Aishwarya Reganti, Parth Patwa, Mohd Sarique, Chandan Gupta, Keshav Nath, Viswanatha Reddy, Vinija Jain, Aman Chadha, Amitava Das, Amit Sheth, Asif Ekbal,
- Abstract要約: 本稿では,デジタルコンテンツにおけるヘイトを識別するためのマルチモーダルデータセットを提案する。
我々は,Digital Attention Analysis Module (DAAM)と組み合わせた透かし,安定性向上,安定拡散技術を適用した。
この組み合わせは、画像内の憎しみのある要素をピンポイントし、それによって詳細な憎しみの注意マップを生成するのに役立ちます。
マルチモーダルデハティフィケーションタスク用に設計された視覚言語モデルであるDeHaterを提案する。
- 参考スコア(独自算出の注目度): 34.789548301583956
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rise in harmful online content not only distorts public discourse but also poses significant challenges to maintaining a healthy digital environment. In response to this, we introduce a multimodal dataset uniquely crafted for identifying hate in digital content. Central to our methodology is the innovative application of watermarked, stability-enhanced, stable diffusion techniques combined with the Digital Attention Analysis Module (DAAM). This combination is instrumental in pinpointing the hateful elements within images, thereby generating detailed hate attention maps, which are used to blur these regions from the image, thereby removing the hateful sections of the image. We release this data set as a part of the dehate shared task. This paper also describes the details of the shared task. Furthermore, we present DeHater, a vision-language model designed for multimodal dehatification tasks. Our approach sets a new standard in AI-driven image hate detection given textual prompts, contributing to the development of more ethical AI applications in social media.
- Abstract(参考訳): 有害なオンラインコンテンツの増加は、公衆の会話を歪ませるだけでなく、健全なデジタル環境を維持する上でも大きな課題となっている。
これに対応するために,デジタルコンテンツにおけるヘイトを識別するためのマルチモーダルデータセットを提案する。
我々の方法論の中心は、デジタル注意分析モジュール(DAAM)と組み合わせた透かし、安定性を向上し、安定した拡散技術による革新的な応用である。
この組み合わせは、画像内の憎しみのある要素をピンポイントし、画像からこれらの領域をぼかすために使用される詳細な憎しみの注意マップを生成し、画像の憎しみのある部分を取り除くのに役立ちます。
このデータセットは、dehate共有タスクの一部としてリリースします。
本稿では,共有タスクの詳細についても述べる。
さらに,マルチモーダルデハティフィケーションタスク用に設計された視覚言語モデルであるDeHaterを提案する。
我々のアプローチは、テキストプロンプトが与えられたAI駆動の画像嫌がらせ検出の新しい標準を設定し、ソーシャルメディアにおけるより倫理的なAIアプリケーションの開発に寄与する。
関連論文リスト
- Safeguard Text-to-Image Diffusion Models with Human Feedback Inversion [51.931083971448885]
本稿では,Human Feedback Inversion (HFI) というフレームワークを提案する。
実験の結果,画像品質を維持しながら,好ましくないコンテンツ生成を著しく削減し,公的な領域におけるAIの倫理的展開に寄与することが示された。
論文 参考訳(メタデータ) (2024-07-17T05:21:41Z) - Be Yourself: Bounded Attention for Multi-Subject Text-to-Image Generation [60.943159830780154]
本稿では,サンプリングプロセスにおける情報フローをバウンドする訓練不要な手法である境界注意法を紹介する。
提案手法は,与えられたプロンプトとレイアウトの整合性を向上する複数の主題の生成に有効であることを示す。
論文 参考訳(メタデータ) (2024-03-25T17:52:07Z) - Catch You Everything Everywhere: Guarding Textual Inversion via Concept Watermarking [67.60174799881597]
本稿では,透かし情報を対象概念に埋め込んで,その概念に基づいて生成された画像から抽出する新しい概念透かしを提案する。
実際には、コンセプトオーナは、自身のコンセプトを異なる透かし(e, serial number)をプラットフォームにアップロードすることができ、プラットフォームは異なるシリアル番号を、その後の追跡と法医学のために割り当てる。
論文 参考訳(メタデータ) (2023-09-12T03:33:13Z) - Towards Safe Self-Distillation of Internet-Scale Text-to-Image Diffusion
Models [63.20512617502273]
テキストから画像への拡散モデルにおいて,問題のあるコンテンツ生成を防止するため,SDDと呼ばれる手法を提案する。
本手法は,画像の全体的な品質を劣化させることなく,生成した画像から有害なコンテンツをはるかに多く除去する。
論文 参考訳(メタデータ) (2023-07-12T07:48:29Z) - Deep Image Deblurring: A Survey [165.32391279761006]
低レベルのコンピュータビジョンにおいて、デブロアリングは古典的な問題であり、ぼやけた入力画像からシャープなイメージを復元することを目的としている。
近年のディープラーニングの進歩は、この問題の解決に大きな進歩をもたらした。
論文 参考訳(メタデータ) (2022-01-26T01:31:30Z) - A Compact Neural Network-based Algorithm for Robust Image Watermarking [30.727227627295548]
Invertible Watermarking Network (IWN) という,コンパクトニューラルネットワークを用いた新しいデジタル画像透かしソリューションを提案する。
我々のIWNアーキテクチャは、単一の可逆ニューラルネットワーク(INN)に基づいている。
電子透かし方式の堅牢性を高めるため,我々は単純だが効果的なビットメッセージ正規化モジュールを導入する。
論文 参考訳(メタデータ) (2021-12-27T03:20:45Z) - Detecting Hate Speech in Multi-modal Memes [14.036769355498546]
我々は,マルチモーダルミームにおけるヘイトスピーチ検出に着目し,ミームが興味深いマルチモーダル融合問題を引き起こす。
Facebook Meme Challenge citekiela 2020hatefulは、ミームが憎悪であるかどうかを予測するバイナリ分類問題を解決することを目的としている。
論文 参考訳(メタデータ) (2020-12-29T18:30:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。