論文の概要: A Federated Approach to Few-Shot Hate Speech Detection for Marginalized Communities
- arxiv url: http://arxiv.org/abs/2412.04942v2
- Date: Fri, 11 Apr 2025 11:34:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-14 14:17:08.344091
- Title: A Federated Approach to Few-Shot Hate Speech Detection for Marginalized Communities
- Title(参考訳): グループ化コミュニティを対象としたFew-Shot Hate音声検出のためのフェデレートアプローチ
- Authors: Haotian Ye, Axel Wisiorek, Antonis Maronikolakis, Özge Alaçam, Hinrich Schütze,
- Abstract要約: ネット上でのヘイトスピーチは、辺境化コミュニティにとって未検討の課題だ。
本稿では,オンラインヘイトスピーチから身を守るためのプライバシ保護ツールを,疎外化コミュニティに提供することを目的とする。
- 参考スコア(独自算出の注目度): 43.37824420609252
- License:
- Abstract: Hate speech online remains an understudied issue for marginalized communities, particularly in the Global South, which includes developing societies with increasing internet penetration. In this paper, we aim to provide marginalized communities in societies where the dominant language is low-resource with a privacy-preserving tool to protect themselves from online hate speech by filtering offensive content in their native languages. Our contributions are twofold: 1) we release REACT (REsponsive hate speech datasets Across ConTexts), a collection of high-quality, culture-specific hate speech detection datasets comprising multiple target groups and low-resource languages, curated by experienced data collectors; 2) we propose a few-shot hate speech detection approach based on federated learning (FL), a privacy-preserving method for collaboratively training a central model that exhibits robustness when tackling different target groups and languages. By keeping training local to user devices, we ensure data privacy while leveraging the collective learning benefits of FL. Furthermore, we explore personalized client models tailored to specific target groups and evaluate their performance. Our findings indicate the overall effectiveness of FL across different target groups, and point to personalization as a promising direction.
- Abstract(参考訳): オンライン上でのヘイトスピーチは、インターネットの浸透が増加する社会の発展を含む、特にグローバル・サウス(Global South)において、未調査の課題となっている。
本稿では,母国語における攻撃的コンテンツをフィルタリングすることで,ネットヘイトスピーチから身を守るためのプライバシ保護ツールを用いて,支配的言語が低リソースである社会における疎外化コミュニティを提供することを目的とする。
私たちの貢献は2つあります。
1)REACT(Responsive hate speech datasets Across ConTexts)は、複数のターゲットグループと低リソース言語からなる高品質で文化固有のヘイトスピーチ検出データセットの集合であり、経験豊富なデータ収集者がキュレートする。
2)フェデレートラーニング(FL)に基づく数発のヘイトスピーチ検出手法を提案する。これは、異なるターゲットグループや言語に対処する際の堅牢性を示す中心モデルと協調的にトレーニングするプライバシー保護手法である。
ユーザデバイスにローカルにトレーニングを続けることで、FLの集合的な学習メリットを活用しながら、データのプライバシを確保することができます。
さらに、特定のターゲットグループに適したパーソナライズされたクライアントモデルを探索し、その性能を評価する。
その結果,FLの全体効果は異なる対象群で示され,パーソナライゼーションが有望な方向であることを示唆した。
関連論文リスト
- AfriHate: A Multilingual Collection of Hate Speech and Abusive Language Datasets for African Languages [12.038482067686544]
AfriHateは15のアフリカの言語におけるヘイトスピーチと虐待的な言語データセットのコレクションである。
AfriHateの各インスタンスは、地元の文化に詳しいネイティブスピーカーによって注釈付けされている。
論文 参考訳(メタデータ) (2025-01-14T18:00:07Z) - A Survey on Automatic Online Hate Speech Detection in Low-Resource Languages [0.5825410941577593]
ソーシャルメディアとインターネットのアクセシビリティはヘイトスピーチの普及を促している。
本稿は、世界中の低リソース言語におけるヘイトスピーチ検出に関する詳細な調査である。
論文 参考訳(メタデータ) (2024-11-28T09:42:53Z) - Communication-Efficient Personalized Federated Learning for Speech-to-Text Tasks [64.02867484165476]
プライバシー保護と法的規制を満たすために、連邦学習(FL)は、音声テキスト(S2T)システムのトレーニングにおいて大きな注目を集めている。
S2Tタスクで一般的に使用されるFLアプローチ(textscFedAvg)は、通常、広範な通信オーバーヘッドに悩まされる。
我々は、クライアント側チューニングとサーバとのインタラクションのための軽量なLoRAモジュールであるtextscFedLoRA と、$k$-near を備えたグローバルモデルである textscFedMem を導入したパーソナライズされたS2Tフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-18T15:39:38Z) - MetaHate: A Dataset for Unifying Efforts on Hate Speech Detection [2.433983268807517]
ヘイトスピーチは、標的となる個人やコミュニティに対して、社会的、心理的、時には身体的脅威を生じさせる。
この現象に対処するための現在の計算言語学的アプローチは、トレーニングのためのラベル付きソーシャルメディアデータセットに依存している。
我々は60以上のデータセットを精査し、その関連するものをMetaHateに選択的に統合しました。
我々の発見は、既存のデータセットのより深い理解に寄与し、より堅牢で適応可能なモデルをトレーニングするための道を開いた。
論文 参考訳(メタデータ) (2024-01-12T11:54:53Z) - Quantifying the Dialect Gap and its Correlates Across Languages [69.18461982439031]
この研究は、明らかな相違を明らかにし、マインドフルなデータ収集を通じてそれらに対処する可能性のある経路を特定することによって、方言NLPの分野を強化する基盤となる。
論文 参考訳(メタデータ) (2023-10-23T17:42:01Z) - Countering Malicious Content Moderation Evasion in Online Social
Networks: Simulation and Detection of Word Camouflage [64.78260098263489]
ツイストとカモフラージュキーワードは、プラットフォームコンテンツモデレーションシステムを回避する最もよく使われるテクニックである。
本稿では,コンテンツ回避の新たな手法をシミュレートし,検出する多言語ツールを開発することにより,悪意ある情報に対する対処に大きく貢献する。
論文 参考訳(メタデータ) (2022-12-27T16:08:49Z) - COLD: A Benchmark for Chinese Offensive Language Detection [54.60909500459201]
COLDatasetは、37kの注釈付き文を持つ中国の攻撃的言語データセットである。
また、人気のある中国語モデルの出力攻撃性を研究するために、textscCOLDetectorを提案する。
我々の資源と分析は、中国のオンラインコミュニティを解毒し、生成言語モデルの安全性を評価することを目的としている。
論文 参考訳(メタデータ) (2022-01-16T11:47:23Z) - Addressing the Challenges of Cross-Lingual Hate Speech Detection [115.1352779982269]
本稿では,低リソース言語におけるヘイトスピーチ検出を支援するために,言語間移動学習に着目した。
言語間単語の埋め込みを利用して、ソース言語上でニューラルネットワークシステムをトレーニングし、ターゲット言語に適用します。
本研究では,ヘイトスピーチデータセットのラベル不均衡の問題について検討する。なぜなら,ヘイトサンプルと比較して非ヘイトサンプルの比率が高いことがモデル性能の低下につながることが多いからだ。
論文 参考訳(メタデータ) (2022-01-15T20:48:14Z) - An Online Multilingual Hate speech Recognition System [13.87667165678441]
6つのデータセットを1つの同質なデータセットに組み合わせて分析し、3つのクラスに分類します。
ほぼリアルタイムで有効なメトリックでページを識別し、スコア付けするツールを作成し、フィードバックでモデルを再トレーニングします。
英語とヒンディー語という2つの言語モデル上での多言語モデルの競合性能を証明し、ほとんどの単言語モデルに匹敵するあるいは優れた性能をもたらす。
論文 参考訳(メタデータ) (2020-11-23T16:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。