論文の概要: CounterGeDi: A controllable approach to generate polite, detoxified and
emotional counterspeech
- arxiv url: http://arxiv.org/abs/2205.04304v1
- Date: Mon, 9 May 2022 14:10:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-10 17:27:31.804532
- Title: CounterGeDi: A controllable approach to generate polite, detoxified and
emotional counterspeech
- Title(参考訳): CounterGeDi: 礼儀正しい、解毒され、感情的な反響を生成するための制御可能なアプローチ
- Authors: Punyajoy Saha, Kanishk Singh, Adarsh Kumar, Binny Mathew and Animesh
Mukherjee
- Abstract要約: 我々は,ダイアロGPTモデルの生成を,より丁寧で,解毒され,感情に満ちた反音声へと導くために,CounterGeDiを提案する。
3つのデータセットを用いて反音声を生成し、異なる属性スコア間で顕著な改善を観察する。
- 参考スコア(独自算出の注目度): 7.300229659237878
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, many studies have tried to create generation models to assist
counter speakers by providing counterspeech suggestions for combating the
explosive proliferation of online hate. However, since these suggestions are
from a vanilla generation model, they might not include the appropriate
properties required to counter a particular hate speech instance. In this
paper, we propose CounterGeDi - an ensemble of generative discriminators (GeDi)
to guide the generation of a DialoGPT model toward more polite, detoxified, and
emotionally laden counterspeech. We generate counterspeech using three datasets
and observe significant improvement across different attribute scores. The
politeness and detoxification scores increased by around 15% and 6%
respectively, while the emotion in the counterspeech increased by at least 10%
across all the datasets. We also experiment with triple-attribute control and
observe significant improvement over single attribute results when combining
complementing attributes, e.g., politeness, joyfulness and detoxification. In
all these experiments, the relevancy of the generated text does not deteriorate
due to the application of these controls
- Abstract(参考訳): 近年,オンライン嫌悪の爆発的増殖に対処するための対策として,対向話者支援のための生成モデルの開発が試みられている。
しかし、これらの提案はバニラ生成モデルによるものであるため、特定のヘイトスピーチのインスタンスに対応するのに必要なプロパティを含まない可能性がある。
本稿では、ダイアロGPTモデルの生成を、より丁寧で、解毒され、感情に満ちた反音声へと導くための、ジェネレータ(GeDi)のアンサンブルであるCounterGeDiを提案する。
3つのデータセットを用いてカウンタスペッチを生成し,異なる属性スコア間で有意な改善を観察する。
丁寧さと解毒率は, それぞれ15%, 6%増加し, 反響の感情は全データセットで少なくとも10%上昇した。
また,トリプル属性制御を実験し,補足属性,例えば礼儀正しさ,喜び感,デトキソフィケーションを組み合わせることで,単一属性よりも大きな改善を観察する。
これらすべての実験において、これらの制御の適用により生成されたテキストの関連性が低下しない。
関連論文リスト
- A Target-Aware Analysis of Data Augmentation for Hate Speech Detection [3.858155067958448]
ヘイトスピーチは、ソーシャルネットワークの普及によって引き起こされる主要な脅威の1つだ。
本稿では,既存のデータを生成言語モデルで拡張し,ターゲットの不均衡を低減する可能性を検討する。
起源、宗教、障害などのヘイトカテゴリーでは、トレーニングのための強化データを用いたヘイトスピーチ分類は、拡張ベースラインが存在しない場合、10%以上のF1が向上する。
論文 参考訳(メタデータ) (2024-10-10T15:46:27Z) - CrowdCounter: A benchmark type-specific multi-target counterspeech dataset [10.133642589954192]
我々は3,425のヘイトスピーチ対を含む新しいデータセット、CrowdCounterを紹介した。
アノテーションプラットフォーム自体の設計は、アノテーションに対して、タイプ固有の、非冗長で高品質なカウンター音声を書くことを奨励します。
バニラとタイプ制御プロンプトという,対音声応答を生成する2つのフレームワークを評価する。
論文 参考訳(メタデータ) (2024-10-02T10:24:51Z) - Towards Unsupervised Speech Recognition Without Pronunciation Models [57.222729245842054]
ほとんどの言語では、音声認識システムを効果的に訓練するのに十分なペア音声とテキストデータがない。
本稿では、教師なしASRシステムを開発するために、音素レキシコンへの依存を除去することを提案する。
音声合成とテキスト・テキスト・マスクによるトークン埋込から教師なし音声認識が実現可能であることを実験的に実証した。
論文 参考訳(メタデータ) (2024-06-12T16:30:58Z) - Outcome-Constrained Large Language Models for Countering Hate Speech [10.434435022492723]
本研究は,会話結果に制約された反音声を生成する手法を開発することを目的とする。
我々は,大言語モデル(LLM)を用いて,テキスト生成プロセスに2つの望ましい会話結果を導入する実験を行った。
評価結果から,提案手法が望まれる結果に対して効果的に対応できることが示唆された。
論文 参考訳(メタデータ) (2024-03-25T19:44:06Z) - DisCGen: A Framework for Discourse-Informed Counterspeech Generation [34.75404551612012]
本稿では,言論理論に基づく枠組みを提案し,反声と憎しみのあるコメントを結びつける推論リンクについて検討する。
本稿では,Reddit から現在地にある反音声のデータセットを収集するプロセスを提案する。
提案するデータセットとフレームワークを用いて,大規模言語モデルを用いて,談話理論に基づいて文脈的に接地した対音声を生成することができることを示す。
論文 参考訳(メタデータ) (2023-11-29T23:20:17Z) - Leveraging Implicit Feedback from Deployment Data in Dialogue [83.02878726357523]
本研究では,ユーザ間の自然な対話とデプロイモデルから学習することで,社会的会話エージェントの改善について検討する。
我々は、ユーザ応答長、感情、未来の人間の発話の反応などの信号を、収集された対話エピソードで活用する。
論文 参考訳(メタデータ) (2023-07-26T11:34:53Z) - Paraphrasing evades detectors of AI-generated text, but retrieval is an
effective defense [56.077252790310176]
本稿では,パラフレーズ生成モデル(DIPPER)を提案する。
DIPPERを使って3つの大きな言語モデル(GPT3.5-davinci-003)で生成されたテキストを言い換えると、透かしを含むいくつかの検出器を回避できた。
我々は,言語モデルAPIプロバイダによって維持されなければならない,意味論的に類似した世代を検索するシンプルなディフェンスを導入する。
論文 参考訳(メタデータ) (2023-03-23T16:29:27Z) - Addressing the Challenges of Cross-Lingual Hate Speech Detection [115.1352779982269]
本稿では,低リソース言語におけるヘイトスピーチ検出を支援するために,言語間移動学習に着目した。
言語間単語の埋め込みを利用して、ソース言語上でニューラルネットワークシステムをトレーニングし、ターゲット言語に適用します。
本研究では,ヘイトスピーチデータセットのラベル不均衡の問題について検討する。なぜなら,ヘイトサンプルと比較して非ヘイトサンプルの比率が高いことがモデル性能の低下につながることが多いからだ。
論文 参考訳(メタデータ) (2022-01-15T20:48:14Z) - Generate, Prune, Select: A Pipeline for Counterspeech Generation against
Online Hate Speech [9.49544185939481]
オフザシェルフ自然言語生成(NLG)法は, 日常的, 反復的, 安全な応答を生成する点で制限されている。
本稿では,多様性と妥当性を効果的に向上する3モジュールパイプラインを設計する。
提案したパイプラインは,まず多様性を促進するために生成モデルを用いて様々な反音声候補を生成し,次にBERTモデルを用いて非文法的候補をフィルタリングし,最後に最も関連性の高い反音声応答を選択する。
論文 参考訳(メタデータ) (2021-06-03T06:54:03Z) - You Do Not Need More Data: Improving End-To-End Speech Recognition by
Text-To-Speech Data Augmentation [59.31769998728787]
我々は、ASRトレーニングデータベース上にTSシステムを構築し、合成音声でデータを拡張し、認識モデルを訓練する。
テストクリーンはWER 4.3%,他のテストクリーンは13.5%で、このシステムはLibriSpeechトレインクリーン100で訓練されたエンドツーエンドASRの競争結果を確立している。
論文 参考訳(メタデータ) (2020-05-14T17:24:57Z) - Multi-task self-supervised learning for Robust Speech Recognition [75.11748484288229]
本稿では,雑音および残響環境下での頑健な音声認識のためのPASE+を提案する。
我々は、様々なランダムな乱れで入力信号を汚染するオンライン音声歪みモジュールを用いる。
次に,再帰型ネットワークと畳み込み型ネットワークを効率よく組み合わせて,短時間および長期の音声力学をよりよく学習する改良型エンコーダを提案する。
論文 参考訳(メタデータ) (2020-01-25T00:24:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。