論文の概要: Chain of Explanation: New Prompting Method to Generate Higher Quality
Natural Language Explanation for Implicit Hate Speech
- arxiv url: http://arxiv.org/abs/2209.04889v1
- Date: Sun, 11 Sep 2022 15:04:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-13 13:03:27.675179
- Title: Chain of Explanation: New Prompting Method to Generate Higher Quality
Natural Language Explanation for Implicit Hate Speech
- Title(参考訳): 説明連鎖:暗黙のヘイトスピーチのための高品質自然言語説明生成のための新しい提案法
- Authors: Fan Huang, Haewoon Kwak, Jisun An
- Abstract要約: 暗黙のヘイトスピーチのための高品質なNLEを生成するために,提案手法を提案する。
我々は、語彙、意味、忠実な側面から様々な評価指標を用いて、選択された主流事前学習言語モデル(PLM)に基づくベンチマークを構築した。
ヒトの知覚から生成したNLEの品質を更に評価するために、生成したNLEの情報性と明瞭さを評価するために、人間のアノテータを雇う。
- 参考スコア(独自算出の注目度): 8.761064812847078
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies have exploited advanced generative language models to generate
Natural Language Explanations (NLE) for why a certain text could be hateful. We
propose the Chain of Explanation Prompting method, inspired by the chain of
thoughts study \cite{wei2022chain}, to generate high-quality NLE for implicit
hate speech. We build a benchmark based on the selected mainstream Pre-trained
Language Models (PLMs), including GPT-2, GPT-Neo, OPT, T5, and BART, with
various evaluation metrics from lexical, semantic, and faithful aspects. To
further evaluate the quality of the generated NLE from human perceptions, we
hire human annotators to score the informativeness and clarity of the generated
NLE. Then, we inspect which automatic evaluation metric could be best
correlated with the human-annotated informativeness and clarity metric scores.
- Abstract(参考訳): 最近の研究では、高度な生成言語モデルを利用して、特定のテキストがなぜ憎むことができるのかを自然言語説明(nle)を生成する。
暗黙のヘイトスピーチのための高品質なNLEを生成するために, 思考の連鎖から着想を得た説明の連鎖法を提案する。
GPT-2, GPT-Neo, OPT, T5, BART を含む主要な事前学習言語モデル (PLM) に基づいて, 語彙的, 意味的, 忠実な側面から, 様々な評価指標を用いたベンチマークを構築した。
ヒトの知覚から生成したNLEの品質を更に評価するために、生成したNLEの情報性と明瞭さを評価するために、人間のアノテータを雇う。
次に、どの自動評価指標が、人間の注釈による情報提供度や明快度と最もよく関連づけられるかを検査する。
関連論文リスト
- Unsupervised Approach to Evaluate Sentence-Level Fluency: Do We Really
Need Reference? [3.2528685897001455]
本報告では,参照を必要とせず,既存の教師なし手法を用いてテキストの流速を計測する。
提案手法では,様々な単語埋め込みを活用し,RNNアーキテクチャを用いて言語モデルを訓練する。
モデルの性能を評価するため,10言語を対象に比較分析を行った。
論文 参考訳(メタデータ) (2023-12-03T20:09:23Z) - Automatic Evaluation of Generative Models with Instruction Tuning [14.369719297698694]
特定の課題に対する人間の判断と評価基準をエミュレートするための,近年のパラダイムファインチューン事前訓練言語モデルについて検討した。
命令チューニングモデルの一般化能力に着想を得て,命令チューニングに基づく学習指標を提案する。
論文 参考訳(メタデータ) (2023-10-30T23:00:52Z) - Generative Spoken Language Model based on continuous word-sized audio
tokens [52.081868603603844]
本稿では,単語サイズ連続評価音声埋め込みに基づく生成音声言語モデルを提案する。
結果として得られるモデルは、単語サイズの連続埋め込みに基づく最初の生成言語モデルである。
論文 参考訳(メタデータ) (2023-10-08T16:46:14Z) - Reranking for Natural Language Generation from Logical Forms: A Study
based on Large Language Models [47.08364281023261]
大規模言語モデル(LLM)は、自然言語生成において印象的な能力を示している。
しかし、それらの出力品質は矛盾する可能性があり、論理形式(LF)から自然言語を生成する上での課題を提起する。
論文 参考訳(メタデータ) (2023-09-21T17:54:58Z) - Situated Natural Language Explanations [54.083715161895036]
自然言語の説明(NLE)は、人間に意思決定を説明する最もアクセスしやすいツールである。
既存のNLE研究の視点は、観客を考慮に入れない。
Situated NLEは視点を提供し、説明の生成と評価に関するさらなる研究を促進する。
論文 参考訳(メタデータ) (2023-08-27T14:14:28Z) - G-Eval: NLG Evaluation using GPT-4 with Better Human Alignment [64.01972723692587]
本稿では,大規模言語モデルにチェーン・オブ・シント(CoT)を組み込んだフレームワークであるG-Evalと,NLG出力の品質評価のためのフォームフィリングパラダイムを提案する。
GPT-4 をバックボーンモデルとした G-Eval は,要約タスクにおいて,0.514 と人間とのスピアマン相関を達成し,従来手法の差を大きく上回ることを示す。
論文 参考訳(メタデータ) (2023-03-29T12:46:54Z) - GanLM: Encoder-Decoder Pre-training with an Auxiliary Discriminator [114.8954615026781]
本稿では,補助判別器を導入して,エンコーダ・デコーダ事前学習のためのGANスタイルのモデルを提案する。
GanLMは2つのトレーニング済みの目標 – トークン検出の置き換えとトークン記述の置き換え – でトレーニングされている。
言語生成ベンチマークの実験では、強力な言語理解能力を持つ GanLM が、様々な強力な事前学習言語モデルより優れていることが示されている。
論文 参考訳(メタデータ) (2022-12-20T12:51:11Z) - Using Pre-Trained Language Models for Producing Counter Narratives
Against Hate Speech: a Comparative Study [17.338923885534193]
本稿では,CN自動生成作業における事前学習言語モデルの利用に関する広範な研究を行う。
まず、CNを生成するのに最適な特定の言語モデル(またはLMのクラス)と特定の復号機構が存在するかどうかを比較検討する。
自動回帰モデルとデコードを組み合わせることが、最も有望であることを示している。
論文 参考訳(メタデータ) (2022-04-04T12:44:47Z) - Adversarial GLUE: A Multi-Task Benchmark for Robustness Evaluation of
Language Models [86.02610674750345]
AdvGLUE(Adversarial GLUE)は、様々な種類の敵攻撃の下で、現代の大規模言語モデルの脆弱性を調査し評価するための新しいマルチタスクベンチマークである。
GLUEタスクに14の逆攻撃手法を適用してAdvGLUEを構築する。
テストしたすべての言語モデルとロバストなトレーニングメソッドは、AdvGLUEではパフォーマンスが悪く、スコアは明確な精度よりもはるかに遅れています。
論文 参考訳(メタデータ) (2021-11-04T12:59:55Z) - Towards Language Modelling in the Speech Domain Using Sub-word
Linguistic Units [56.52704348773307]
音節や音素を含む言語単位に基づくLSTMに基づく新しい生成音声LMを提案する。
限られたデータセットでは、現代の生成モデルで要求されるものよりも桁違いに小さいので、我々のモデルはバブリング音声を近似する。
補助的なテキストLM,マルチタスク学習目標,補助的な調音特徴を用いた訓練の効果を示す。
論文 参考訳(メタデータ) (2021-10-31T22:48:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。