論文の概要: Generating Zero-shot Abstractive Explanations for Rumour Verification
- arxiv url: http://arxiv.org/abs/2401.12713v3
- Date: Fri, 23 Feb 2024 15:01:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-26 11:51:36.485384
- Title: Generating Zero-shot Abstractive Explanations for Rumour Verification
- Title(参考訳): Rumour Verificationのためのゼロショット抽象記述の生成
- Authors: Iman Munire Bilal, Preslav Nakov, Rob Procter, Maria Liakata
- Abstract要約: 我々は,そのタスクを再構成して,噂の正確性に関するモデル中心のフリーテキストの説明を生成する。
大規模言語モデル(LLM)の少数ショット学習機能を利用する。
実験の結果,LLMは要約評価において人間と類似の一致を示すことができた。
- 参考スコア(独自算出の注目度): 46.897767694062004
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The task of rumour verification in social media concerns assessing the
veracity of a claim on the basis of conversation threads that result from it.
While previous work has focused on predicting a veracity label, here we
reformulate the task to generate model-centric free-text explanations of a
rumour's veracity. The approach is model agnostic in that it generalises to any
model. Here we propose a novel GNN-based rumour verification model. We follow a
zero-shot approach by first applying post-hoc explainability methods to score
the most important posts within a thread and then we use these posts to
generate informative explanations using opinion-guided summarisation. To
evaluate the informativeness of the explanatory summaries, we exploit the
few-shot learning capabilities of a large language model (LLM). Our experiments
show that LLMs can have similar agreement to humans in evaluating summaries.
Importantly, we show explanatory abstractive summaries are more informative and
better reflect the predicted rumour veracity than just using the highest
ranking posts in the thread.
- Abstract(参考訳): ソーシャルメディアにおける噂検証の課題は、それに起因する会話スレッドに基づいてクレームの正確性を評価することである。
これまでの研究では、veracityラベルの予測に重点を置いてきたが、ここでは、噂のveracityのモデル中心のフリーテキスト説明を生成するタスクを再構成する。
アプローチはモデル非依存であり、任意のモデルに一般化する。
本稿では,新しいGNNに基づく噂検証モデルを提案する。
まず、スレッド内で最も重要なポストをスコアするためにポストホックな説明可能性法を適用し、次にこれらのポストを使用して意見誘導要約を用いて情報的説明を生成する。
説明要約のインフォメーション性を評価するために,大規模言語モデル(llm)の少数学習能力を活用した。
実験の結果,LLMは要約評価において人間と類似の一致を示すことができた。
重要な点として,説明的要約がより有益で,スレッドの上位ランクのポストを単に使うよりも,予測された噂の有効性を反映することを示す。
関連論文リスト
- Information-Theoretic Distillation for Reference-less Summarization [67.51150817011617]
本稿では,要約のための情報理論的目的に基づいて,強力な要約器を蒸留する新しい枠組みを提案する。
我々は,教師モデルとしてPythia-2.8Bから出発する。
我々は,ChatGPTと競合する5億8800万のパラメータしか持たないコンパクトだが強力な要約器に到達した。
論文 参考訳(メタデータ) (2024-03-20T17:42:08Z) - AugSumm: towards generalizable speech summarization using synthetic
labels from large language model [61.73741195292997]
抽象音声要約(SSUM)は、音声から人間に似た要約を生成することを目的としている。
従来のSSUMモデルは、主に、人間による注釈付き決定論的要約(英語版)を用いて訓練され、評価されている。
AugSummは,人間のアノテータが拡張要約を生成するためのプロキシとして,大規模言語モデル(LLM)を利用する手法である。
論文 参考訳(メタデータ) (2024-01-10T18:39:46Z) - Active Learning for Abstractive Text Summarization [50.79416783266641]
本稿では,抽象テキスト要約におけるアクティブラーニングのための最初の効果的なクエリ戦略を提案する。
ALアノテーションにおける私たちの戦略は、ROUGEと一貫性スコアの点からモデル性能を向上させるのに役立ちます。
論文 参考訳(メタデータ) (2023-01-09T10:33:14Z) - Transductive Learning for Abstractive News Summarization [24.03781438153328]
トランスダクティブラーニングの要約への最初の適用を提案する。
このアプローチはCNN/DMおよびNYTデータセットに最先端の結果をもたらすことを示しています。
論文 参考訳(メタデータ) (2021-04-17T17:33:12Z) - Few-Shot Learning for Opinion Summarization [117.70510762845338]
オピニオン要約は、複数の文書で表現された主観的な情報を反映したテキストの自動生成である。
本研究では,要約テキストの生成をブートストラップするのには,少数の要約でも十分であることを示す。
提案手法は, 従来の抽出法および抽象法を, 自動的, 人的評価において大きく上回っている。
論文 参考訳(メタデータ) (2020-04-30T15:37:38Z) - Unsupervised Opinion Summarization with Noising and Denoising [85.49169453434554]
ユーザレビューのコーパスから合成データセットを作成し、レビューをサンプリングし、要約のふりをして、ノイズのあるバージョンを生成します。
テスト時に、モデルは本物のレビューを受け入れ、健全な意見を含む要約を生成し、合意に達しないものをノイズとして扱います。
論文 参考訳(メタデータ) (2020-04-21T16:54:57Z) - Learning by Semantic Similarity Makes Abstractive Summarization Better [13.324006587838522]
近年のLM, BART, およびベンチマークデータセットCNN/DMの参照要約を比較した。
興味深いことに、モデル生成サマリーは参照サマリーと比較して高いスコアを受け取る。
論文 参考訳(メタデータ) (2020-02-18T17:59:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。