論文の概要: RAUCG: Retrieval-Augmented Unsupervised Counter Narrative Generation for
Hate Speech
- arxiv url: http://arxiv.org/abs/2310.05650v1
- Date: Mon, 9 Oct 2023 12:01:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 05:10:57.661132
- Title: RAUCG: Retrieval-Augmented Unsupervised Counter Narrative Generation for
Hate Speech
- Title(参考訳): RAUCG:ヘイトスピーチのための検索型教師なしカウンターナラティブ生成
- Authors: Shuyu Jiang, Wenyi Tang, Xingshu Chen, Rui Tanga, Haizhou Wang and
Wenxian Wang
- Abstract要約: カウンターナラティブ(Counter Narrative、CN)は、言論の自由を侵害することなく、オンラインヘイトスピーチ(HS)と戦うための有望なアプローチである。
現在の自動CN生成方法は、主に訓練のために専門家が認可したデータセットに依存している。
我々は、外部のカウンター知識を自動的に拡張し、それをCNにマッピングするために、Retrieval-Augmented Unsupervised Counter Narrative Generation (RAUCG)を提案する。
- 参考スコア(独自算出の注目度): 5.88043557914512
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Counter Narrative (CN) is a promising approach to combat online hate
speech (HS) without infringing on freedom of speech. In recent years, there has
been a growing interest in automatically generating CNs using natural language
generation techniques. However, current automatic CN generation methods mainly
rely on expert-authored datasets for training, which are time-consuming and
labor-intensive to acquire. Furthermore, these methods cannot directly obtain
and extend counter-knowledge from external statistics, facts, or examples. To
address these limitations, we propose Retrieval-Augmented Unsupervised Counter
Narrative Generation (RAUCG) to automatically expand external counter-knowledge
and map it into CNs in an unsupervised paradigm. Specifically, we first
introduce an SSF retrieval method to retrieve counter-knowledge from the
multiple perspectives of stance consistency, semantic overlap rate, and fitness
for HS. Then we design an energy-based decoding mechanism by quantizing
knowledge injection, countering and fluency constraints into differentiable
functions, to enable the model to build mappings from counter-knowledge to CNs
without expert-authored CN data. Lastly, we comprehensively evaluate model
performance in terms of language quality, toxicity, persuasiveness, relevance,
and success rate of countering HS, etc. Experimental results show that RAUCG
outperforms strong baselines on all metrics and exhibits stronger
generalization capabilities, achieving significant improvements of +2.0% in
relevance and +4.5% in success rate of countering metrics. Moreover, RAUCG
enabled GPT2 to outperform T0 in all metrics, despite the latter being
approximately eight times larger than the former. Warning: This paper may
contain offensive or upsetting content!
- Abstract(参考訳): カウンターナラティブ(CN)は、言論の自由を侵害することなく、オンラインヘイトスピーチ(HS)と戦うための有望なアプローチである。
近年,自然言語生成技術を用いたCNの自動生成への関心が高まっている。
しかし、現在のcn生成手法は、主にトレーニングのための専門家主導のデータセットに依存しており、それらは、取得に要する時間と労力がかかる。
さらに、これらの手法は、外部統計、事実、例から反知識を直接取得および拡張することはできない。
そこで,これらの制約に対処するために,外部カウンタナレッジを自動拡張し,教師なしパラダイムでcnsにマップする検索型教師なしカウンターナラティブ生成(raucg)を提案する。
具体的には,まず,hsに対するスタンス一貫性,意味的重複率,適合性といった多視点からカウンターナレッジを検索するssf検索手法を提案する。
そこで我々は,知識注入,カウンタリング,フラレンシ制約を微分可能な関数に量子化し,CNデータを専門家の許可なく,逆知識からCNへのマッピングを構築することができるエネルギーベースの復号機構を設計する。
最後に, 言語品質, 毒性, 説得性, 妥当性, HS対策の成功率などの観点から, モデル性能を総合的に評価する。
実験の結果、RAUCGは全ての指標において強いベースラインを上回り、より強力な一般化能力を示し、相関性において+2.0%、対向性において+4.5%の大幅な改善を達成している。
さらにRAUCGは、GPT2が全ての測定値でT0を上回ったが、後者は前よりも約8倍大きい。
警告: この論文には不快な内容や動揺する内容が含まれているかもしれない。
関連論文リスト
- CTINEXUS: Leveraging Optimized LLM In-Context Learning for Constructing Cybersecurity Knowledge Graphs Under Data Scarcity [49.657358248788945]
サイバー脅威インテリジェンス(CTI)レポートのテキスト記述は、サイバー脅威に関する豊富な知識源である。
現在のCTI抽出法は柔軟性と一般化性に欠けており、しばしば不正確で不完全な知識抽出をもたらす。
CTINexusは,大規模言語モデルのテキスト内学習(ICL)を最適化した新しいフレームワークである。
論文 参考訳(メタデータ) (2024-10-28T14:18:32Z) - A LLM-Based Ranking Method for the Evaluation of Automatic Counter-Narrative Generation [14.064465097974836]
本稿では,Large Language Model (LLM) を用いた対数ナラティブ(CN)生成の評価手法を提案する。
従来の自動指標は, 人間の判断と相関が低く, 生成したCNと人間の知覚との微妙な関係を捉えることができないことを示す。
論文 参考訳(メタデータ) (2024-06-21T15:11:33Z) - Improving the Robustness of Knowledge-Grounded Dialogue via Contrastive
Learning [71.8876256714229]
本稿では,知識ベース対話システムの堅牢性向上を目的とした,エンティティベースのコントラスト学習フレームワークを提案する。
提案手法は,自動評価スコアの点から,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2024-01-09T05:16:52Z) - CTC-based Non-autoregressive Speech Translation [51.37920141751813]
非自己回帰音声翻訳における接続性時間分類の可能性について検討する。
我々は、CTCによって誘導される2つのエンコーダからなるモデルを構築し、ソースおよびターゲットテキストを予測する。
MuST-Cベンチマークの実験では、我々のNASTモデルは平均BLEUスコアが29.5であり、スピードアップは5.67$times$である。
論文 参考訳(メタデータ) (2023-05-27T03:54:09Z) - Evaluate Confidence Instead of Perplexity for Zero-shot Commonsense
Reasoning [85.1541170468617]
本稿では,コモンセンス推論の性質を再考し,新しいコモンセンス推論尺度であるNon-Replacement Confidence(NRC)を提案する。
提案手法は,2つのコモンセンス推論ベンチマークデータセットと,さらに7つのコモンセンス質問応答データセットに対してゼロショット性能を向上する。
論文 参考訳(メタデータ) (2022-08-23T14:42:14Z) - Using Pre-Trained Language Models for Producing Counter Narratives
Against Hate Speech: a Comparative Study [17.338923885534193]
本稿では,CN自動生成作業における事前学習言語モデルの利用に関する広範な研究を行う。
まず、CNを生成するのに最適な特定の言語モデル(またはLMのクラス)と特定の復号機構が存在するかどうかを比較検討する。
自動回帰モデルとデコードを組み合わせることが、最も有望であることを示している。
論文 参考訳(メタデータ) (2022-04-04T12:44:47Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - Control, Generate, Augment: A Scalable Framework for Multi-Attribute
Text Generation [22.70189685469752]
我々は条件付きVAEアーキテクチャであるCGAを導入し、テキストを制御、生成、拡張する。
アブレーション研究において,個々のモデル成分の値を示す。
生成した文の質,多様性,属性の制御を,一連の自動評価および人的評価を通じて示す。
論文 参考訳(メタデータ) (2020-04-30T17:31:16Z) - Characterizing Speech Adversarial Examples Using Self-Attention U-Net
Enhancement [102.48582597586233]
本稿では,U-Net$_At$という,U-Netに基づくアテンションモデルを提案する。
対戦型音声アタックを用いた自動音声認識(ASR)タスクの実験を行った。
論文 参考訳(メタデータ) (2020-03-31T02:16:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。