論文の概要: Outcome-Constrained Large Language Models for Countering Hate Speech
- arxiv url: http://arxiv.org/abs/2403.17146v1
- Date: Mon, 25 Mar 2024 19:44:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-27 19:45:52.697448
- Title: Outcome-Constrained Large Language Models for Countering Hate Speech
- Title(参考訳): ヘイトスピーチに対するアウトカム制約付き大言語モデル
- Authors: Lingzi Hong, Pengcheng Luo, Eduardo Blanco, Xiaoying Song,
- Abstract要約: ヘイトスピーチへの挑戦や対応は、ヘイトスピーチのネガティブな影響を緩和し、生産的なオンラインコミュニケーションを促進する代替手段として見なされてきた。
既存の研究は、礼儀正しさ、情報的、意図駆動といった特定の言語的特性を持つ対音声の生成に焦点を当てている。
まず,大きな言語モデル(LLM)を用いて,潜在的な会話結果に制約された反音声を生成する手法について検討する。
- 参考スコア(独自算出の注目度): 10.434435022492723
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Counterspeech that challenges or responds to hate speech has been seen as an alternative to mitigate the negative impact of hate speech and foster productive online communications. Research endeavors have been directed to using language models for the automatic generation of counterspeech to assist efforts in combating online hate. Existing research focuses on the generation of counterspeech with certain linguistic attributes, such as being polite, informative, and intent-driven. However, it remains unclear what impact the counterspeech might have in an online environment. We first explore methods that utilize large language models (LLM) to generate counterspeech constrained by potential conversation outcomes. We build two conversation outcome classifiers that predict the incivility level and the hater reentry behavior following replies to hate with Reddit data, then propose four methods to incorporate the desired outcomes, i.e., low conversation incivility and non-hateful hater reentry, into the text generation process, including Prompt with Instructions, Prompt and Select, LLM finetune, and LLM transformer reinforcement learning (TRL). Evaluation results show effective strategies to generate outcome-constrained counterspeech and the linguistic characteristics of texts generated by different methods.
- Abstract(参考訳): ヘイトスピーチへの挑戦や対応は、ヘイトスピーチのネガティブな影響を緩和し、生産的なオンラインコミュニケーションを促進する代替手段として見なされてきた。
研究は、オンラインヘイトと戦う努力を支援するために、言語モデルを使用して対抗音声を自動生成することを目的としている。
既存の研究は、礼儀正しさ、情報的、意図駆動といった特定の言語的特性を持つ対音声の生成に焦点を当てている。
しかし、オンライン環境での反響がどのような影響を及ぼすかは不明だ。
まず,大きな言語モデル(LLM)を用いて,潜在的な会話結果に制約された反音声を生成する手法について検討する。
本研究は,Redditデータに対する嫌悪感に追従して,インシヴィティレベルとハザーリエントリー行動を予測する2つの会話結果分類器を構築し,低会話インシビティと非ヘイトフルハザーリエントリーをテキスト生成プロセスに組み込むための4つの方法を提案する。
評価結果は,結果制約付き逆音声を生成するための効果的な戦略と,異なる手法により生成されたテキストの言語的特徴を示す。
関連論文リスト
- Assessing the Human Likeness of AI-Generated Counterspeech [10.434435022492723]
Counterspeechは、悪質なコンテンツやヘイトフルコンテンツに対する反則と挑戦に対するターゲット的反応である。
従来の研究では、自動生成音声に対する様々な戦略が提案されている。
本稿では,AI生成音声の人間的類似性,有効性に影響を与える重要な要因について検討する。
論文 参考訳(メタデータ) (2024-10-14T18:48:47Z) - Recent Advances in Speech Language Models: A Survey [45.968078636811356]
音声言語モデル(SpeechLMs)は、テキストから変換することなく音声を生成するエンドツーエンドモデルである。
本稿では,近年のSpeechLM構築手法について概観する。
論文 参考訳(メタデータ) (2024-10-01T21:48:12Z) - SpeechPrompt: Prompting Speech Language Models for Speech Processing Tasks [94.10497337235083]
我々はまず,音声処理分野における音声 LM の促進の可能性を探る。
音声処理タスクを音声単位生成タスクに再構成する。
提案手法は, 強い微調整法と比較して, 競争性能を向上できることを示す。
論文 参考訳(メタデータ) (2024-08-23T13:00:10Z) - Intent-conditioned and Non-toxic Counterspeech Generation using Multi-Task Instruction Tuning with RLAIF [14.2594830589926]
オンラインヘイトスピーチに対する反応として定義されているCounterspeechは、非センセーショナルソリューションとしてますます利用されている。
ヘイトフルステートメントにおける社会的バイアスの背景にある実践的意味をモデル化し,反音声生成を促進させる新しいフレームワークであるCoARLを紹介した。
CoARLの最初の2つのフェーズは、連続的なマルチインストラクションチューニング、インテント、反応、攻撃的ステートメントの害を理解するためのモデルを教えること、そしてインテント条件付き逆音声を生成するためのタスク固有の低ランクアダプタ重みを学習することである。
論文 参考訳(メタデータ) (2024-03-15T08:03:49Z) - Toward Joint Language Modeling for Speech Units and Text [89.32163954508489]
音声単位とテキストの共用言語モデリングについて検討する。
音声とテキストの混在度を評価するための自動計測手法を提案する。
提案手法を用いて音声単位とテキストを混合することにより,SLUタスクにおける音声のみのベースラインを改良することを示す。
論文 参考訳(メタデータ) (2023-10-12T20:53:39Z) - Understanding Counterspeech for Online Harm Mitigation [12.104301755723542]
Counterspeechは、憎悪の犯人に挑戦し、虐待の標的への支援を示すことによって、憎悪の言葉に対する直接の反論を提供する。
コンテンツモデレーションやデプラットフォームといった、より論争的な手段に代わる、有望な代替手段を提供する。
本稿では,社会科学における反音声研究を体系的にレビューし,自動対音声生成における方法論と知見をコンピュータ科学の取り組みと比較する。
論文 参考訳(メタデータ) (2023-07-01T20:54:01Z) - SpeechGen: Unlocking the Generative Power of Speech Language Models with
Prompts [108.04306136086807]
本稿では,SpeechGenと呼ばれる統合フレームワークを用いて,各種タスクの音声LMを刺激するための即時チューニングの適用について検討する。
提案した統合フレームワークは効率と有効性に大きな可能性を秘めている。
論文 参考訳(メタデータ) (2023-06-03T22:35:27Z) - Self-Supervised Speech Representation Learning: A Review [105.1545308184483]
自己教師付き表現学習法は、幅広いタスクやドメインに利益をもたらす単一の普遍的モデルを約束する。
音声表現学習は、生成的、コントラスト的、予測的という3つの主要なカテゴリで同様の進歩を経験している。
本稿では,自己指導型音声表現学習のアプローチと,他の研究領域との関係について述べる。
論文 参考訳(メタデータ) (2022-05-21T16:52:57Z) - Towards Language Modelling in the Speech Domain Using Sub-word
Linguistic Units [56.52704348773307]
音節や音素を含む言語単位に基づくLSTMに基づく新しい生成音声LMを提案する。
限られたデータセットでは、現代の生成モデルで要求されるものよりも桁違いに小さいので、我々のモデルはバブリング音声を近似する。
補助的なテキストLM,マルチタスク学習目標,補助的な調音特徴を用いた訓練の効果を示す。
論文 参考訳(メタデータ) (2021-10-31T22:48:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。