論文の概要: StopHC: A Harmful Content Detection and Mitigation Architecture for Social Media Platforms
- arxiv url: http://arxiv.org/abs/2411.06138v1
- Date: Sat, 09 Nov 2024 10:23:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-12 14:08:41.552334
- Title: StopHC: A Harmful Content Detection and Mitigation Architecture for Social Media Platforms
- Title(参考訳): StopHC: ソーシャルメディアプラットフォームのための有害コンテンツ検出と緩和アーキテクチャ
- Authors: Ciprian-Octavian Truică, Ana-Teodora Constantinescu, Elena-Simona Apostol,
- Abstract要約: textscStopHCはソーシャルメディアプラットフォームにとって有害なコンテンツ検出および緩和アーキテクチャである。
私たちのソリューションには、2つのモジュールが含まれています。1つは有害なコンテンツ検出にディープニューラルネットワークアーキテクチャを使用し、もう1つは有害なノードをブロックし、有害なコンテンツの拡散を止めるためにネットワーク免疫アルゴリズムを使用しています。
- 参考スコア(独自算出の注目度): 0.46289929100614996
- License:
- Abstract: The mental health of social media users has started more and more to be put at risk by harmful, hateful, and offensive content. In this paper, we propose \textsc{StopHC}, a harmful content detection and mitigation architecture for social media platforms. Our aim with \textsc{StopHC} is to create more secure online environments. Our solution contains two modules, one that employs deep neural network architecture for harmful content detection, and one that uses a network immunization algorithm to block toxic nodes and stop the spread of harmful content. The efficacy of our solution is demonstrated by experiments conducted on two real-world datasets.
- Abstract(参考訳): ソーシャルメディア利用者のメンタルヘルスは、有害で憎悪で不快なコンテンツによって危険にさらされるようになってきています。
本稿では,ソーシャルメディアプラットフォームにおける有害なコンテンツ検出・緩和アーキテクチャである「textsc{StopHC}」を提案する。
textsc{StopHC}の目的は、より安全なオンライン環境を作ることです。
我々のソリューションには、有害なコンテンツ検出にディープニューラルネットワークアーキテクチャを使用するモジュールと、有害なノードをブロックし有害なコンテンツの拡散を阻止するためにネットワーク免疫アルゴリズムを使用するモジュールの2つが含まれている。
本手法の有効性は,実世界の2つのデータセットを用いた実験によって実証された。
関連論文リスト
- Into the LAIONs Den: Investigating Hate in Multimodal Datasets [67.21783778038645]
本稿では、LAION-400MとLAION-2Bの2つのデータセットの比較監査を通して、ヘイトフルコンテンツに対するデータセットのスケーリングの効果について検討する。
その結果、データセットのスケールによってヘイトコンテンツは12%近く増加し、質的にも定量的にも測定された。
また、画像のみに基づいて算出されたNot Safe For Work(NSFW)値に基づくデータセットの内容のフィルタリングは、アルトテキストにおける有害なコンテンツをすべて排除するものではないことがわかった。
論文 参考訳(メタデータ) (2023-11-06T19:00:05Z) - HOD: A Benchmark Dataset for Harmful Object Detection [3.755082744150185]
有害物体検出のための新しいベンチマークデータセットを提案する。
提案したデータセットには、有害である可能性のある6つのカテゴリにわたる1万以上の画像が含まれている。
我々は,提案したデータセットの有効性を評価するために,広範囲な実験を行った。
論文 参考訳(メタデータ) (2023-10-08T15:00:38Z) - An Image is Worth a Thousand Toxic Words: A Metamorphic Testing
Framework for Content Moderation Software [64.367830425115]
ソーシャルメディアプラットフォームは、ヘイトスピーチ、悪意のある広告、ポルノなど、有害なコンテンツを拡散するためにますます悪用されている。
コンテンツモデレーション手法の開発と展開に多大な努力を払っているにもかかわらず、悪意のあるユーザは、テキストを画像に埋め込むことでモデレーションを回避することができる。
コンテンツモデレーションソフトウェアのためのメタモルフィックテストフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-18T20:33:06Z) - MCWDST: a Minimum-Cost Weighted Directed Spanning Tree Algorithm for
Real-Time Fake News Mitigation in Social Media [10.088200477738749]
本稿では,フェイクニュースを正確に検出し,リアルタイムに拡散するネットワークノードを免疫するエンドツーエンドソリューションを提案する。
フェイクニュースの拡散を軽減するため,リアルタイムなネットワーク認識戦略を提案する。
論文 参考訳(メタデータ) (2023-02-23T17:31:40Z) - Countering Malicious Content Moderation Evasion in Online Social
Networks: Simulation and Detection of Word Camouflage [64.78260098263489]
ツイストとカモフラージュキーワードは、プラットフォームコンテンツモデレーションシステムを回避する最もよく使われるテクニックである。
本稿では,コンテンツ回避の新たな手法をシミュレートし,検出する多言語ツールを開発することにより,悪意ある情報に対する対処に大きく貢献する。
論文 参考訳(メタデータ) (2022-12-27T16:08:49Z) - Mitigating Covertly Unsafe Text within Natural Language Systems [55.26364166702625]
制御されていないシステムは、怪我や致命的な結果につながるレコメンデーションを生成する。
本稿では,身体的危害につながる可能性のあるテキストのタイプを識別し,特に未発見のカテゴリを確立する。
論文 参考訳(メタデータ) (2022-10-17T17:59:49Z) - Cross-Network Social User Embedding with Hybrid Differential Privacy
Guarantees [81.6471440778355]
プライバシー保護方式でユーザを包括的に表現するために,ネットワーク横断型ソーシャルユーザ埋め込みフレームワークDP-CroSUEを提案する。
特に、各異種ソーシャルネットワークに対して、異種データ型に対するプライバシー期待の変化を捉えるために、まずハイブリッドな差分プライバシーの概念を導入する。
ユーザ埋め込みをさらに強化するため、新しいネットワーク間GCN埋め込みモデルは、それらの整列したユーザを介して、ネットワーク間で知識を伝達するように設計されている。
論文 参考訳(メタデータ) (2022-09-04T06:22:37Z) - TeamX@DravidianLangTech-ACL2022: A Comparative Analysis for Troll-Based
Meme Classification [21.32190107220764]
ネット上の有害コンテンツは ソーシャルメディアプラットフォーム、政府機関、政策立案者、社会全体の間で 懸念を高めました
有害コンテンツに基づくオンラインコンテンツは、その1つで、挑発的、攻撃的、あるいは威圧的なメッセージを、視聴者を誤解させる意図で投稿する、というものだ。
本研究は,テキスト,ビジュアル,マルチモーダルコンテンツを用いて,トロルに基づくミーム分類の比較分析を行った。
論文 参考訳(メタデータ) (2022-05-09T16:19:28Z) - Detecting Harmful Content On Online Platforms: What Platforms Need Vs.
Where Research Efforts Go [44.774035806004214]
オンラインプラットフォーム上の有害コンテンツには、ヘイトスピーチ、攻撃的言語、いじめとハラスメント、誤情報、スパム、暴力、グラフィックコンテンツ、性的虐待、自己被害など、さまざまな形態がある。
オンラインプラットフォームは、そのようなコンテンツを、社会的危害を抑えるため、法律に従うために、ユーザーのためにより包括的な環境を作るために、緩和しようとしている。
現在、オンラインプラットフォームが抑制しようとしている有害なコンテンツの種類と、そのようなコンテンツを自動的に検出する研究努力との間には、隔たりがある。
論文 参考訳(メタデータ) (2021-02-27T08:01:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。