論文の概要: Prompt, Condition, and Generate: Classification of Unsupported Claims
with In-Context Learning
- arxiv url: http://arxiv.org/abs/2309.10359v1
- Date: Tue, 19 Sep 2023 06:42:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 16:07:29.038844
- Title: Prompt, Condition, and Generate: Classification of Unsupported Claims
with In-Context Learning
- Title(参考訳): Prompt, Condition, Generate: In-Context Learningによるサポートなしクレームの分類
- Authors: Peter Ebert Christensen, Srishti Yadav, Serge Belongie
- Abstract要約: 我々は,詳細な議論に焦点をあて,可算な物語の集合を蒸留する新たな課題を定式化する。
本稿では,120k以上の議論,主張,異質な情報源からのコメントを含む12の論争的トピックをクラウドソースで収集し,それぞれに物語ラベルを付加した。
提案手法は,物語分類モデルの性能向上に有効であることを示す。
- 参考スコア(独自算出の注目度): 5.893124686141782
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Unsupported and unfalsifiable claims we encounter in our daily lives can
influence our view of the world. Characterizing, summarizing, and -- more
generally -- making sense of such claims, however, can be challenging. In this
work, we focus on fine-grained debate topics and formulate a new task of
distilling, from such claims, a countable set of narratives. We present a
crowdsourced dataset of 12 controversial topics, comprising more than 120k
arguments, claims, and comments from heterogeneous sources, each annotated with
a narrative label. We further investigate how large language models (LLMs) can
be used to synthesise claims using In-Context Learning. We find that generated
claims with supported evidence can be used to improve the performance of
narrative classification models and, additionally, that the same model can
infer the stance and aspect using a few training examples. Such a model can be
useful in applications which rely on narratives , e.g. fact-checking.
- Abstract(参考訳): 日々の生活の中で遭遇する否定的かつ不可解な主張は、私たちの世界観に影響を与えうる。
しかし、こうした主張を理にかなった特徴付け、要約、そしてより一般的には -- は困難である。
本研究は,細かな議論トピックに注目し,そのような主張から可算的な物語の集合を蒸留する新たなタスクを定式化する。
我々は12のトピックからなるクラウドソースのデータセットを提示し,120万以上の議論やクレーム,異種ソースからのコメントを,それぞれナラティブラベルで注釈付けした。
さらに,コンテキスト内学習を用いたクレーム合成にllm(large language model)がいかに役立つかについても検討する。
支援された証拠が得られたクレームは,物語分類モデルの性能向上に有効であり,さらに,いくつかのトレーニング例を用いて,同じモデルがスタンスやアスペクトを推論できることが確認された。
このようなモデルは、例えばファクトチェックのような物語に依存するアプリケーションで有用である。
関連論文リスト
- Causal Micro-Narratives [62.47217054314046]
テキストから因果マイクロナラティブを分類する新しい手法を提案する。
これらの物語は、対象対象の因果関係と/または効果の文レベルの説明である。
論文 参考訳(メタデータ) (2024-10-07T17:55:10Z) - Can Language Models Take A Hint? Prompting for Controllable Contextualized Commonsense Inference [12.941933077524919]
我々は、文脈化されたコモンセンス推論を強化するデータ拡張手法である"hinting"を導入する。
『Hinting』では、ハードプロンプトとソフトプロンプトを併用して推論プロセスの導出を行う。
この結果から,"隠れ"は文脈コモンセンス推論の性能を損なうことなく,制御性の向上を図っている。
論文 参考訳(メタデータ) (2024-10-03T04:32:46Z) - Enhancing Argument Structure Extraction with Efficient Leverage of
Contextual Information [79.06082391992545]
本稿では,コンテキスト情報を完全に活用する効率的なコンテキスト認識モデル(ECASE)を提案する。
文脈情報や議論情報を集約するために,シーケンスアテンションモジュールと距離重み付き類似度損失を導入する。
各種ドメインの5つのデータセットに対する実験により,我々のモデルが最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2023-10-08T08:47:10Z) - Which Argumentative Aspects of Hate Speech in Social Media can be
reliably identified? [2.7647400328727256]
議論のどの側面が言語モデルに確実に識別され、統合されるのかは、不明である。
いくつかのコンポーネントが合理的な信頼性で識別可能であることを示す。
より確実に再現できるカテゴリの適応を提案する。
論文 参考訳(メタデータ) (2023-06-05T15:50:57Z) - Can NLP Models Correctly Reason Over Contexts that Break the Common
Assumptions? [14.991565484636745]
我々は,NLPモデルが一般的な仮定を破る文脈を正しく推論する能力について検討する。
一般的な仮定に従うコンテキストでかなりうまく機能する一方で、モデルはこれらの仮定を破るコンテキストに対して正しく推論するのに苦労しています。
具体的には、パフォーマンスギャップは20%の絶対点である。
論文 参考訳(メタデータ) (2023-05-20T05:20:37Z) - Topics in the Haystack: Extracting and Evaluating Topics beyond
Coherence [0.0]
本稿では,文と文書のテーマを深く理解する手法を提案する。
これにより、一般的な単語やネオロジズムを含む潜在トピックを検出することができる。
本稿では, 侵入者の単語の人間識別と相関係数を示し, 単語侵入作業において, ほぼ人間レベルの結果を得る。
論文 参考訳(メタデータ) (2023-03-30T12:24:25Z) - ConvoSumm: Conversation Summarization Benchmark and Improved Abstractive
Summarization with Argument Mining [61.82562838486632]
我々は、さまざまなオンライン会話形式のニュースコメント、ディスカッションフォーラム、コミュニティ質問応答フォーラム、電子メールスレッドに関する4つの新しいデータセットをクラウドソースする。
我々は、データセットの最先端モデルをベンチマークし、データに関連する特徴を分析します。
論文 参考訳(メタデータ) (2021-06-01T22:17:13Z) - Learning from Context or Names? An Empirical Study on Neural Relation
Extraction [112.06614505580501]
テキストにおける2つの主要な情報ソースの効果について検討する:テキストコンテキストとエンティティ参照(名前)
本稿では,関係抽出のための実体型コントラスト事前学習フレームワーク(RE)を提案する。
我々のフレームワークは、異なるREシナリオにおけるニューラルモデルの有効性と堅牢性を改善することができる。
論文 参考訳(メタデータ) (2020-10-05T11:21:59Z) - Abstractive Summarization of Spoken and Written Instructions with BERT [66.14755043607776]
本稿では,BERTSumモデルの最初の対話型言語への応用について述べる。
我々は多種多様な話題にまたがるナレーションビデオの抽象要約を生成する。
我々は、これをインテリジェントな仮想アシスタントの機能として統合し、要求に応じて文字と音声の両方の指導内容の要約を可能にすることを想定する。
論文 参考訳(メタデータ) (2020-08-21T20:59:34Z) - Topic Adaptation and Prototype Encoding for Few-Shot Visual Storytelling [81.33107307509718]
トピック間一般化の能力をモデル化するためのトピック適応型ストーリーテラを提案する。
また,アトピー内導出能力のモデル化を目的とした符号化手法の試作も提案する。
実験結果から,トピック適応とプロトタイプ符号化構造が相互に利益をもたらすことが明らかとなった。
論文 参考訳(メタデータ) (2020-08-11T03:55:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。