論文の概要: Defining, Understanding, and Detecting Online Toxicity: Challenges and Machine Learning Approaches
- arxiv url: http://arxiv.org/abs/2509.14264v1
- Date: Sun, 14 Sep 2025 00:16:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-19 17:26:52.893805
- Title: Defining, Understanding, and Detecting Online Toxicity: Challenges and Machine Learning Approaches
- Title(参考訳): オンライン毒性の定義、理解、検出 - 課題と機械学習アプローチ
- Authors: Gautam Kishore Shahi, Tim A. Majchrzak,
- Abstract要約: 本研究は,デジタルプラットフォーム上での各種有害コンテンツに関する140の出版物の合成について述べる。
データセットは32言語でコンテンツを含み、選挙、自然発生イベント、危機などのトピックをカバーしている。
本稿では,オンライン有害同意に関する新たな研究の提言とガイドライン,およびコンテンツモデレーションによる緩和について紹介する。
- 参考スコア(独自算出の注目度): 4.1824815480811806
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Online toxic content has grown into a pervasive phenomenon, intensifying during times of crisis, elections, and social unrest. A significant amount of research has been focused on detecting or analyzing toxic content using machine-learning approaches. The proliferation of toxic content across digital platforms has spurred extensive research into automated detection mechanisms, primarily driven by advances in machine learning and natural language processing. Overall, the present study represents the synthesis of 140 publications on different types of toxic content on digital platforms. We present a comprehensive overview of the datasets used in previous studies focusing on definitions, data sources, challenges, and machine learning approaches employed in detecting online toxicity, such as hate speech, offensive language, and harmful discourse. The dataset encompasses content in 32 languages, covering topics such as elections, spontaneous events, and crises. We examine the possibility of using existing cross-platform data to improve the performance of classification models. We present the recommendations and guidelines for new research on online toxic consent and the use of content moderation for mitigation. Finally, we present some practical guidelines to mitigate toxic content from online platforms.
- Abstract(参考訳): オンラインの有害なコンテンツは、危機、選挙、社会不安の時代に激化して広まりつつある現象へと成長してきた。
機械学習アプローチによる有害なコンテンツの検出や分析に、かなりの量の研究が注がれている。
デジタルプラットフォームにまたがる有害なコンテンツの拡散は、機械学習と自然言語処理の進歩を中心に、自動検出機構の広範な研究を刺激している。
本研究は,デジタルプラットフォーム上での各種有害コンテンツに関する140の出版物の合成について述べる。
本稿では, ヘイトスピーチ, 攻撃的言語, 有害な言論などのオンライン毒性の検出に使用される, 定義, データソース, 課題, 機械学習アプローチに焦点をあてた過去の研究で用いられるデータセットの概要を概観する。
データセットは32言語でコンテンツを含み、選挙、自然発生イベント、危機などのトピックをカバーしている。
既存のクロスプラットフォームデータを用いて分類モデルの性能を向上させる可能性を検討する。
本稿では,オンライン有害同意に関する新たな研究の提言とガイドライン,およびコンテンツモデレーションによる緩和について紹介する。
最後に,オンラインプラットフォームから有害コンテンツを緩和するための実践的ガイドラインを提示する。
関連論文リスト
- Understanding and Mitigating Toxicity in Image-Text Pretraining Datasets: A Case Study on LLaVA [0.0]
このデータセットは、LLaVA事前トレーニングデータセットにおいて、有害な画像テキストペアの7,531を除去する。
堅牢な毒性検出パイプラインを実装するためのガイドラインを提供する。
論文 参考訳(メタデータ) (2025-05-09T18:01:50Z) - Ontology Embedding: A Survey of Methods, Applications and Resources [54.3453925775069]
オンロジはドメインの知識とメタデータを表現するために広く使われている。
直接支援できる論理的推論は、学習、近似、予測において非常に限られています。
1つの簡単な解決策は、統計分析と機械学習を統合することである。
論文 参考訳(メタデータ) (2024-06-16T14:49:19Z) - A Taxonomy of Rater Disagreements: Surveying Challenges & Opportunities
from the Perspective of Annotating Online Toxicity [15.23055494327071]
Toxicityは、オンライン空間でますます一般的で深刻な問題になっている。
機械学習の研究の豊富な行は、オンライン毒性を計算的に検出し緩和することに焦点を当てている。
近年の研究では,本課題の主観的性質を考慮した会計の重要性が指摘されている。
論文 参考訳(メタデータ) (2023-11-07T21:00:51Z) - Countering Malicious Content Moderation Evasion in Online Social
Networks: Simulation and Detection of Word Camouflage [64.78260098263489]
ツイストとカモフラージュキーワードは、プラットフォームコンテンツモデレーションシステムを回避する最もよく使われるテクニックである。
本稿では,コンテンツ回避の新たな手法をシミュレートし,検出する多言語ツールを開発することにより,悪意ある情報に対する対処に大きく貢献する。
論文 参考訳(メタデータ) (2022-12-27T16:08:49Z) - Panning for gold: Lessons learned from the platform-agnostic automated
detection of political content in textual data [48.7576911714538]
異なるプラットフォーム間で政治的コンテンツを検出するために、これらの技術がどのように使用できるかについて議論する。
辞書,教師付き機械学習,ニューラルネットワークに依存する3つの検出手法のパフォーマンスを比較した。
この結果から,ニューラルネットワークと機械学習に基づくモデルによって達成されるノイズの少ないデータに対して,事前処理がモデル性能に与える影響が限定された。
論文 参考訳(メタデータ) (2022-07-01T15:23:23Z) - Handling Bias in Toxic Speech Detection: A Survey [26.176340438312376]
本稿では,有毒な音声検出におけるバイアスの評価と緩和手法について検討する。
ケーススタディでは、知識に基づくバイアス緩和によるバイアスシフトの概念を紹介している。
調査は、重要な課題、研究のギャップ、今後の方向性の概要で締めくくっている。
論文 参考訳(メタデータ) (2022-01-26T10:38:36Z) - RealToxicityPrompts: Evaluating Neural Toxic Degeneration in Language
Models [93.151822563361]
事前訓練されたニューラルネットワークモデル(LM)は、安全なデプロイメントを妨げる人種差別的、性差別的、その他の有害な言語を生成する傾向にある。
本研究では, 予め訓練したLMが有害な言語を生成できる範囲と, 有害な変性を防止するための制御可能なテキスト生成アルゴリズムの有効性について検討する。
論文 参考訳(メタデータ) (2020-09-24T03:17:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。