論文の概要: Hate Speech According to the Law: An Analysis for Effective Detection
- arxiv url: http://arxiv.org/abs/2412.06144v1
- Date: Mon, 09 Dec 2024 01:58:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-10 14:55:49.036054
- Title: Hate Speech According to the Law: An Analysis for Effective Detection
- Title(参考訳): 法律によるヘイトスピーチ : 効果的な検出のための分析
- Authors: Katerina Korre, John Pavlopoulos, Paolo Gajo, Alberto Barrón-Cedeño,
- Abstract要約: 本研究は,プロシーカブルヘイトスピーチにおける研究の増幅の重要性を強調した。
法的枠組みのパラメータ内でヘイトスピーチと戦う効果的な戦略に関する洞察を提供する。
- 参考スコア(独自算出の注目度): 6.802357986439992
- License:
- Abstract: The issue of hate speech extends beyond the confines of the online realm. It is a problem with real-life repercussions, prompting most nations to formulate legal frameworks that classify hate speech as a punishable offence. These legal frameworks differ from one country to another, contributing to the big chaos that online platforms have to face when addressing reported instances of hate speech. With the definitions of hate speech falling short in introducing a robust framework, we turn our gaze onto hate speech laws. We consult the opinion of legal experts on a hate speech dataset and we experiment by employing various approaches such as pretrained models both on hate speech and legal data, as well as exploiting two large language models (Qwen2-7B-Instruct and Meta-Llama-3-70B). Due to the time-consuming nature of data acquisition for prosecutable hate speech, we use pseudo-labeling to improve our pretrained models. This study highlights the importance of amplifying research on prosecutable hate speech and provides insights into effective strategies for combating hate speech within the parameters of legal frameworks. Our findings show that legal knowledge in the form of annotations can be useful when classifying prosecutable hate speech, yet more focus should be paid on the differences between the laws.
- Abstract(参考訳): ヘイトスピーチの問題は、オンライン領域の制限を超えて広がっている。
これは現実の反動の問題であり、ほとんどの国はヘイトスピーチを罰せられる犯罪として分類する法的枠組みを定式化するよう促している。
これらの法的枠組みは国によって異なり、ヘイトスピーチの報告された事例に対処する際にオンラインプラットフォームが直面する大きな混乱に寄与する。
ヘイトスピーチの定義は、堅牢なフレームワークの導入において不足しているため、私たちはヘイトスピーチ法に目を向ける。
本研究では,ヘイトスピーチデータセットに関する法的専門家の意見を参考にするとともに,ヘイトスピーチと法的なデータを用いた事前訓練モデル,および2つの大きな言語モデル(Qwen2-7B-InstructとMeta-Llama-3-70B)の活用など,さまざまなアプローチを用いて実験を行う。
プロシーカブルヘイトスピーチのためのデータ取得には時間を要するため、事前訓練されたモデルを改善するために擬似ラベルを使用する。
本研究は, 訴追可能なヘイトスピーチに関する研究を増幅することの重要性を強調し, 法的枠組みのパラメータ内でヘイトスピーチと戦うための効果的な戦略について考察する。
以上の結果から,提案するヘイトスピーチを分類する際には,アノテーション形式の法的知識が有用であることが示唆された。
関連論文リスト
- OWLS: Scaling Laws for Multilingual Speech Recognition and Translation Models [55.63479003621053]
本稿では,多言語音声認識および翻訳モデルのオープンアクセススイートであるOWLSを紹介する。
OWLSを使用してニューラルスケーリング法則を導出し、スケーリング時に最終的なパフォーマンスが確実に予測できることを示す。
大規模音声モデルにおける創発的能力の発見により,OWLSを新たな研究方向の電力源として活用する方法を示す。
論文 参考訳(メタデータ) (2025-02-14T18:51:40Z) - Dealing with Annotator Disagreement in Hate Speech Classification [0.0]
本稿では,アノテータの不一致に対処するための戦略について検討する。
トルコのつぶやきにおけるヘイトスピーチ分類に関するアノテータの不一致に対処するための様々なアプローチを、細調整されたBERTモデルに基づいて評価した。
本研究は,問題の重要性を強調し,オンライン談話におけるヘイトスピーチの検出と理解のための最先端のベンチマーク結果を提供する。
論文 参考訳(メタデータ) (2025-02-12T10:19:50Z) - A Hate Speech Moderated Chat Application: Use Case for GDPR and DSA Compliance [0.0]
本研究は、コンテンツモデレーションプロセスに法的・倫理的推論を実装する新しい応用法を提案する。
GPT-3.5やSolid Pods,ルール言語Provaといった技術を使って,オンラインコミュニケーションの基本となる2つのユースケースを提示し,実装する。
この研究は、ヘイトスピーチの法的および倫理的定義の異なる範囲で推論するための新しいアプローチを提案し、ヘイトスピーチに適合するカウンターを計画する。
論文 参考訳(メタデータ) (2024-10-10T08:28:38Z) - Demarked: A Strategy for Enhanced Abusive Speech Moderation through Counterspeech, Detoxification, and Message Management [71.99446449877038]
本研究では, 重度尺度, (ii) ターゲットの存在, (iii) 文脈尺度, (iv) 法的尺度の4つの側面を基礎として, より包括的手法であるDemarcation scoreing abusive speechを提案する。
本研究は,ネット上での虐待的スピーチを効果的に解決するための今後の戦略を明らかにすることを目的としている。
論文 参考訳(メタデータ) (2024-06-27T21:45:33Z) - An Investigation of Large Language Models for Real-World Hate Speech
Detection [46.15140831710683]
既存の手法の大きな制限は、ヘイトスピーチ検出がコンテキストの問題である点である。
近年,大規模言語モデル (LLM) はいくつかの自然言語処理において最先端の性能を示した。
本研究は, ヘイトスピーチの文脈を効果的に把握する上で, 巧妙な推論プロンプトが有効であることを明らかにする。
論文 参考訳(メタデータ) (2024-01-07T00:39:33Z) - Hate Speech Detection via Dual Contrastive Learning [25.878271501274245]
本稿では,ヘイトスピーチ検出のための新しい双方向コントラスト学習フレームワークを提案する。
本フレームワークは,自己教師型学習と教師型学習の損失を協調的に最適化し,スパンレベルの情報を取得する。
公開可能な2つの英語データセットの実験を行い、実験結果から、提案モデルが最先端のモデルより優れていることが示された。
論文 参考訳(メタデータ) (2023-07-10T13:23:36Z) - Towards Legally Enforceable Hate Speech Detection for Public Forums [29.225955299645978]
本研究では,ヘイトスピーチ検出のための新たな視点と課題を紹介する。
法の専門家による11の可能な定義に違反したデータセットを使用します。
ヘイトスピーチの明確で法的に強制可能なインスタンスを特定することの難しさを踏まえ、専門家が作成したサンプルと自動マイニングされたチャレンジセットでデータセットを拡張する。
論文 参考訳(メタデータ) (2023-05-23T04:34:41Z) - CoSyn: Detecting Implicit Hate Speech in Online Conversations Using a
Context Synergized Hyperbolic Network [52.85130555886915]
CoSynは、オンライン会話における暗黙のヘイトスピーチを検出するために、ユーザと会話のコンテキストを明示的に組み込んだ、コンテキスト中心のニューラルネットワークである。
我々は、CoSynが、1.24%から57.8%の範囲で絶対的に改善された暗黙のヘイトスピーチを検出することで、我々のベースラインを全て上回っていることを示す。
論文 参考訳(メタデータ) (2023-03-02T17:30:43Z) - Pile of Law: Learning Responsible Data Filtering from the Law and a
256GB Open-Source Legal Dataset [46.156169284961045]
我々は, フィルター材料におけるトレードオフに直接対処する法則に基づくフィルタリングへのアプローチを提案する。
まず、256GBのオープンソース英語および行政データのデータセットであるPile of Lawを収集、利用可能にします。
第二に、政府が有毒または私的コンテンツを含めることを規制するために開発した法規範を精査する。
第3に、Pile of Lawが研究者に、このようなフィルタリングルールを直接データから学習する機会を提供する方法を示します。
論文 参考訳(メタデータ) (2022-07-01T06:25:15Z) - Addressing the Challenges of Cross-Lingual Hate Speech Detection [115.1352779982269]
本稿では,低リソース言語におけるヘイトスピーチ検出を支援するために,言語間移動学習に着目した。
言語間単語の埋め込みを利用して、ソース言語上でニューラルネットワークシステムをトレーニングし、ターゲット言語に適用します。
本研究では,ヘイトスピーチデータセットのラベル不均衡の問題について検討する。なぜなら,ヘイトサンプルと比較して非ヘイトサンプルの比率が高いことがモデル性能の低下につながることが多いからだ。
論文 参考訳(メタデータ) (2022-01-15T20:48:14Z) - Countering Online Hate Speech: An NLP Perspective [34.19875714256597]
オンラインヘイトフル行動の傘語であるオンライン毒性は、オンラインヘイトスピーチのような形で現れている。
ソーシャルメディアを通じた大量コミュニケーションの増加は、オンラインヘイトスピーチの有害な結果をさらに悪化させる。
本稿では、ヘイトスピーチにおけるNLP対応手法に関する総合的な概念的枠組みと、オンラインヘイトスピーチ対策におけるNLPの現在の動向に関する徹底的な調査について述べる。
論文 参考訳(メタデータ) (2021-09-07T08:48:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。