論文の概要: Counterspeeches up my sleeve! Intent Distribution Learning and
Persistent Fusion for Intent-Conditioned Counterspeech Generation
- arxiv url: http://arxiv.org/abs/2305.13776v1
- Date: Tue, 23 May 2023 07:45:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 18:16:21.767392
- Title: Counterspeeches up my sleeve! Intent Distribution Learning and
Persistent Fusion for Intent-Conditioned Counterspeech Generation
- Title(参考訳): 袖をふさぎなさい!
インテント分布学習と永続融合によるインテントコンディション音声生成
- Authors: Rishabh Gupta, Shaily Desai, Manvi Goel, Anil Bandhakavi, Tanmoy
Chakraborty and Md. Shad Akhtar
- Abstract要約: 本稿では,意図条件付き対音声生成について検討する。
IntentCONANは,5つのインテントに条件付き6831カウンタスピーチを持つ,多種多様な意図特異的カウンタースピーチデータセットである。
本稿では,意図条件付き音声生成のための2段階フレームワークであるQUARCを提案する。
- 参考スコア(独自算出の注目度): 26.4510688070963
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Counterspeech has been demonstrated to be an efficacious approach for
combating hate speech. While various conventional and controlled approaches
have been studied in recent years to generate counterspeech, a counterspeech
with a certain intent may not be sufficient in every scenario. Due to the
complex and multifaceted nature of hate speech, utilizing multiple forms of
counter-narratives with varying intents may be advantageous in different
circumstances. In this paper, we explore intent-conditioned counterspeech
generation. At first, we develop IntentCONAN, a diversified intent-specific
counterspeech dataset with 6831 counterspeeches conditioned on five intents,
i.e., informative, denouncing, question, positive, and humour. Subsequently, we
propose QUARC, a two-stage framework for intent-conditioned counterspeech
generation. QUARC leverages vector-quantized representations learned for each
intent category along with PerFuMe, a novel fusion module to incorporate
intent-specific information into the model. Our evaluation demonstrates that
QUARC outperforms several baselines by an average of 10% across evaluation
metrics. An extensive human evaluation supplements our hypothesis of better and
more appropriate responses than comparative systems.
- Abstract(参考訳): counterspeechはヘイトスピーチと戦うための効果的なアプローチであることが示されている。
様々な伝統的かつ制御されたアプローチが近年研究されているが、あらゆるシナリオにおいて特定の意図を持ったカウンタースパイクは不十分かもしれない。
ヘイトスピーチの複雑で多面的な性質のため、異なる状況下で異なる意図を持つ複数の形態の反ナラティブを利用するのが有利である。
本稿では,意図条件付き対音声生成について検討する。
IntentCONANは、6831のカウンタースピーチを5つのインテント(情報、名詞、質問、肯定、ユーモア)で条件付けした、多種多様な意図特異的なカウンタースピーチデータセットである。
次に,意図条件付き音声生成のための2段階フレームワークであるQUARCを提案する。
QUIRCは、インテント固有の情報をモデルに組み込む新しい融合モジュールであるPerFuMeとともに、各インテントカテゴリで学んだベクトル量子化表現を利用する。
評価結果から, quRC は評価指標全体で平均10% 以上の性能を示した。
人的評価は、比較システムよりも優れた適切な応答の仮説を補う。
関連論文リスト
- CrowdCounter: A benchmark type-specific multi-target counterspeech dataset [10.133642589954192]
我々は3,425のヘイトスピーチ対を含む新しいデータセット、CrowdCounterを紹介した。
アノテーションプラットフォーム自体の設計は、アノテーションに対して、タイプ固有の、非冗長で高品質なカウンター音声を書くことを奨励します。
バニラとタイプ制御プロンプトという,対音声応答を生成する2つのフレームワークを評価する。
論文 参考訳(メタデータ) (2024-10-02T10:24:51Z) - SpeechAlign: Aligning Speech Generation to Human Preferences [51.684183257809075]
本稿では,言語モデルと人間の嗜好を一致させる反復的自己改善戦略であるSpeechAlignを紹介する。
我々は、SpeechAlignが分散ギャップを埋め、言語モデルの継続的自己改善を促進することができることを示す。
論文 参考訳(メタデータ) (2024-04-08T15:21:17Z) - Outcome-Constrained Large Language Models for Countering Hate Speech [10.434435022492723]
本研究は,会話結果に制約された反音声を生成する手法を開発することを目的とする。
我々は,大言語モデル(LLM)を用いて,テキスト生成プロセスに2つの望ましい会話結果を導入する実験を行った。
評価結果から,提案手法が望まれる結果に対して効果的に対応できることが示唆された。
論文 参考訳(メタデータ) (2024-03-25T19:44:06Z) - Intent-conditioned and Non-toxic Counterspeech Generation using Multi-Task Instruction Tuning with RLAIF [14.2594830589926]
オンラインヘイトスピーチに対する反応として定義されているCounterspeechは、非センセーショナルソリューションとしてますます利用されている。
ヘイトフルステートメントにおける社会的バイアスの背景にある実践的意味をモデル化し,反音声生成を促進させる新しいフレームワークであるCoARLを紹介した。
CoARLの最初の2つのフェーズは、連続的なマルチインストラクションチューニング、インテント、反応、攻撃的ステートメントの害を理解するためのモデルを教えること、そしてインテント条件付き逆音声を生成するためのタスク固有の低ランクアダプタ重みを学習することである。
論文 参考訳(メタデータ) (2024-03-15T08:03:49Z) - DisCGen: A Framework for Discourse-Informed Counterspeech Generation [34.75404551612012]
本稿では,言論理論に基づく枠組みを提案し,反声と憎しみのあるコメントを結びつける推論リンクについて検討する。
本稿では,Reddit から現在地にある反音声のデータセットを収集するプロセスを提案する。
提案するデータセットとフレームワークを用いて,大規模言語モデルを用いて,談話理論に基づいて文脈的に接地した対音声を生成することができることを示す。
論文 参考訳(メタデータ) (2023-11-29T23:20:17Z) - Exploring Speech Recognition, Translation, and Understanding with
Discrete Speech Units: A Comparative Study [68.88536866933038]
音声信号は、通常、毎秒数万のレートでサンプリングされ、冗長性を含んでいる。
近年の研究では、自己教師型学習表現から派生した離散音声単位の使用が提案されている。
復号化やサブワードモデリングなどの様々な手法を適用することで、さらに音声列の長さを圧縮することができる。
論文 参考訳(メタデータ) (2023-09-27T17:21:13Z) - Adversarial GLUE: A Multi-Task Benchmark for Robustness Evaluation of
Language Models [86.02610674750345]
AdvGLUE(Adversarial GLUE)は、様々な種類の敵攻撃の下で、現代の大規模言語モデルの脆弱性を調査し評価するための新しいマルチタスクベンチマークである。
GLUEタスクに14の逆攻撃手法を適用してAdvGLUEを構築する。
テストしたすべての言語モデルとロバストなトレーニングメソッドは、AdvGLUEではパフォーマンスが悪く、スコアは明確な精度よりもはるかに遅れています。
論文 参考訳(メタデータ) (2021-11-04T12:59:55Z) - Fuzzy Classification of Multi-intent Utterances [0.0]
現在のインテント分類アプローチでは、バイナリインテントクラスメンバシップを自然言語発話に割り当てる。
本稿では,多言語発話だけでなく,単文の曖昧性にも対処するためのスキームを提案する。
論文 参考訳(メタデータ) (2021-04-22T02:15:56Z) - General-Purpose Speech Representation Learning through a Self-Supervised
Multi-Granularity Framework [114.63823178097402]
本稿では,汎用音声表現学習のための自己教師型学習フレームワーク MGF を提案する。
具体的には、生成学習手法を用いて、小さな時間スケールできめ細かい情報を捕捉し、識別学習手法を用いて、粗い情報や意味情報を大規模に蒸留することを提案する。
論文 参考訳(メタデータ) (2021-02-03T08:13:21Z) - Discriminative Nearest Neighbor Few-Shot Intent Detection by
Transferring Natural Language Inference [150.07326223077405]
データ不足を緩和するためには、ほとんどショットラーニングが注目を集めている。
深部自己注意を伴う識別的近傍分類を提示する。
自然言語推論モデル(NLI)を変換することで識別能力を高めることを提案する。
論文 参考訳(メタデータ) (2020-10-25T00:39:32Z) - Unsupervised Cross-lingual Representation Learning for Speech
Recognition [63.85924123692923]
XLSRは、複数の言語における音声の生波形から1つのモデルを事前学習することで、言語間音声表現を学習する。
我々は、マスク付き潜在音声表現よりも対照的なタスクを解くことで訓練されたwav2vec 2.0を構築した。
実験により、言語間事前学習はモノリンガル事前訓練よりも著しく優れていることが示された。
論文 参考訳(メタデータ) (2020-06-24T18:25:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。