論文の概要: Detecting Anti-Semitic Hate Speech using Transformer-based Large Language Models
- arxiv url: http://arxiv.org/abs/2405.03794v1
- Date: Mon, 6 May 2024 19:00:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-08 18:14:30.651592
- Title: Detecting Anti-Semitic Hate Speech using Transformer-based Large Language Models
- Title(参考訳): 変圧器を用いた大規模言語モデルを用いた反セミティック・ヘイト音声の検出
- Authors: Dengyi Liu, Minghao Wang, Andrew G. Catlin,
- Abstract要約: われわれの研究は、2019年以来、トランスフォーマーベースで生成可能なAI技術に代わるものを探究してきた。
我々は、新しいデータラベリング手法を開発し、反セミティックヘイトスピーチをターゲットとした概念実証を確立した。
本稿では, ヘイトスピーチ検出の複雑さに対処するための, 最先端手法の比較検討を行った。
- 参考スコア(独自算出の注目度): 0.8110978727364399
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Academic researchers and social media entities grappling with the identification of hate speech face significant challenges, primarily due to the vast scale of data and the dynamic nature of hate speech. Given the ethical and practical limitations of large predictive models like ChatGPT in directly addressing such sensitive issues, our research has explored alternative advanced transformer-based and generative AI technologies since 2019. Specifically, we developed a new data labeling technique and established a proof of concept targeting anti-Semitic hate speech, utilizing a variety of transformer models such as BERT (arXiv:1810.04805), DistillBERT (arXiv:1910.01108), RoBERTa (arXiv:1907.11692), and LLaMA-2 (arXiv:2307.09288), complemented by the LoRA fine-tuning approach (arXiv:2106.09685). This paper delineates and evaluates the comparative efficacy of these cutting-edge methods in tackling the intricacies of hate speech detection, highlighting the need for responsible and carefully managed AI applications within sensitive contexts.
- Abstract(参考訳): 学術研究者やソーシャルメディアは、ヘイトスピーチの識別に不満を抱いているが、主に大量のデータとヘイトスピーチのダイナミックな性質のために大きな課題に直面している。
このようなセンシティブな問題に直接対処するChatGPTのような大規模予測モデルの倫理的かつ実践的な制限を考えると、我々の研究は2019年以降、トランスフォーマーベースで生成可能なAI技術に代わる方法を模索してきた。
具体的には,新たなデータラベリング手法を開発し,BERT (arXiv:1810.04805), DistillBERT (arXiv:1910.01108), RoBERTa (arXiv:1907.11692), LLaMA-2 (arXiv:2307.09288), LoRAファインチューニングアプローチ (arXiv:2106.09685) などのトランスフォーマモデルを用いて,反セミティックヘイトスピーチをターゲットとした概念実証を確立した。
本稿では、ヘイトスピーチ検出の複雑さに対処する上で、これらの最先端手法の比較効果を詳述し、評価し、センシティブな文脈において、責任と慎重に管理されたAIアプリケーションの必要性を強調した。
関連論文リスト
- Hierarchical Sentiment Analysis Framework for Hate Speech Detection: Implementing Binary and Multiclass Classification Strategy [0.0]
本稿では,英語におけるヘイトスピーチを検出するために,共有感情表現と統合された新しいマルチタスクモデルを提案する。
我々は、感情分析とトランスフォーマーに基づく訓練モデルを利用することで、複数のデータセット間でのヘイトスピーチの検出を大幅に改善できると結論付けた。
論文 参考訳(メタデータ) (2024-11-03T04:11:33Z) - HyPoradise: An Open Baseline for Generative Speech Recognition with
Large Language Models [81.56455625624041]
ASRの誤り訂正に外部の大規模言語モデル(LLM)を利用する最初のオープンソースベンチマークを導入する。
提案したベンチマークには、334,000組以上のN-best仮説を含む新しいデータセットHyPoradise (HP)が含まれている。
合理的なプロンプトと生成能力を持つLLMは、N-bestリストに欠けているトークンを修正できる。
論文 参考訳(メタデータ) (2023-09-27T14:44:10Z) - Understanding Counterspeech for Online Harm Mitigation [12.104301755723542]
Counterspeechは、憎悪の犯人に挑戦し、虐待の標的への支援を示すことによって、憎悪の言葉に対する直接の反論を提供する。
コンテンツモデレーションやデプラットフォームといった、より論争的な手段に代わる、有望な代替手段を提供する。
本稿では,社会科学における反音声研究を体系的にレビューし,自動対音声生成における方法論と知見をコンピュータ科学の取り組みと比較する。
論文 参考訳(メタデータ) (2023-07-01T20:54:01Z) - A Group-Specific Approach to NLP for Hate Speech Detection [2.538209532048867]
オンラインヘイトスピーチ検出のためのグループ固有のNLPアプローチを提案する。
我々は、保護されたグループに対する差別に関する歴史的データを分析し、そのグループに対するヘイトスピーチのスパイクを予測する。
我々は,NLPによる反ユダヤ的ヘイトスピーチの検出を事例として,この手法を実証する。
論文 参考訳(メタデータ) (2023-04-21T19:08:49Z) - Combating high variance in Data-Scarce Implicit Hate Speech
Classification [0.0]
我々は,最先端の性能を実現する新しいRoBERTaモデルを開発した。
本稿では,様々な最適化手法と正規化手法を探求し,最先端性能を実現するRoBERTaベースの新しいモデルを開発する。
論文 参考訳(メタデータ) (2022-08-29T13:45:21Z) - Deep Learning for Hate Speech Detection: A Comparative Study [54.42226495344908]
ここでは, ディープ・ヘイト・音声検出法と浅いヘイト・音声検出法を大規模に比較した。
私たちの目標は、この地域の進歩を照らし、現在の最先端の強みと弱点を特定することです。
そこで我々は,ヘイトスピーチ検出の実践的利用に関するガイダンスの提供,最先端の定量化,今後の研究方向の特定を目的としている。
論文 参考訳(メタデータ) (2022-02-19T03:48:20Z) - LaMDA: Language Models for Dialog Applications [75.75051929981933]
LaMDAは、ダイアログに特化したトランスフォーマーベースのニューラルネットワークモデルのファミリーである。
注釈付きデータで微調整し、モデルが外部の知識ソースを参照できるようにすると、大幅な改善がもたらされる。
論文 参考訳(メタデータ) (2022-01-20T15:44:37Z) - Addressing the Challenges of Cross-Lingual Hate Speech Detection [115.1352779982269]
本稿では,低リソース言語におけるヘイトスピーチ検出を支援するために,言語間移動学習に着目した。
言語間単語の埋め込みを利用して、ソース言語上でニューラルネットワークシステムをトレーニングし、ターゲット言語に適用します。
本研究では,ヘイトスピーチデータセットのラベル不均衡の問題について検討する。なぜなら,ヘイトサンプルと比較して非ヘイトサンプルの比率が高いことがモデル性能の低下につながることが多いからだ。
論文 参考訳(メタデータ) (2022-01-15T20:48:14Z) - Characterizing the adversarial vulnerability of speech self-supervised
learning [95.03389072594243]
我々は,ゼロ知識とリミテッド知識の両方の敵からの攻撃の下で,そのようなパラダイムの敵対的脆弱性を調査するための最初の試みを行う。
実験結果から, SUPERB が提案するパラダイムは, 限られた知識を持つ敵に対して脆弱であることが示唆された。
論文 参考訳(メタデータ) (2021-11-08T08:44:04Z) - Detecting Cross-Modal Inconsistency to Defend Against Neural Fake News [57.9843300852526]
我々は、画像やキャプションを含む機械生成ニュースに対して、より現実的で挑戦的な対策を導入する。
敵が悪用できる可能性のある弱点を特定するために、4つの異なる種類の生成された記事からなるNeuralNewsデータセットを作成します。
ユーザ実験から得られた貴重な知見に加えて,視覚的意味的不整合の検出にもとづく比較的効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-16T14:13:15Z) - Towards Hate Speech Detection at Large via Deep Generative Modeling [4.080068044420974]
ヘイトスピーチ検出はソーシャルメディアプラットフォームにおいて重要な問題である。
生成言語モデルにより生成された100万件の現実的憎悪と非憎悪のシーケンスのデータセットを提示する。
5つの公開ヘイトスピーチデータセットで一貫した、重要なパフォーマンス改善を実証する。
論文 参考訳(メタデータ) (2020-05-13T15:25:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。