論文の概要: Can Large Language Models perform Relation-based Argument Mining?
- arxiv url: http://arxiv.org/abs/2402.11243v1
- Date: Sat, 17 Feb 2024 10:37:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 22:24:14.547216
- Title: Can Large Language Models perform Relation-based Argument Mining?
- Title(参考訳): 大規模言語モデルは関係ベースの引数マイニングを実行できるか?
- Authors: Deniz Gorur, Antonio Rago, Francesca Toni
- Abstract要約: 引数マイニング(Argument mining、AM)は、テキストから引数、それらのコンポーネント、および/またはコンポーネント間の関係を自動的に抽出するプロセスである。
関係ベースAM(Relation-based AM、RbAM)は、議論における合意(サポート)と不一致(アタック)の関係の特定に焦点を当てたAMの一形態である。
汎用大規模言語モデル (LLM) は, 適切な素数化, 誘導によって, 最高の性能(RoBERTaベース) のベースラインを大幅に上回ることを示す。
- 参考スコア(独自算出の注目度): 15.362683263839772
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Argument mining (AM) is the process of automatically extracting arguments,
their components and/or relations amongst arguments and components from text.
As the number of platforms supporting online debate increases, the need for AM
becomes ever more urgent, especially in support of downstream tasks.
Relation-based AM (RbAM) is a form of AM focusing on identifying agreement
(support) and disagreement (attack) relations amongst arguments. RbAM is a
challenging classification task, with existing methods failing to perform
satisfactorily. In this paper, we show that general-purpose Large Language
Models (LLMs), appropriately primed and prompted, can significantly outperform
the best performing (RoBERTa-based) baseline. Specifically, we experiment with
two open-source LLMs (Llama-2 and Mistral) with ten datasets.
- Abstract(参考訳): 引数マイニング(英: argument mining、am)は、テキストから引数とそのコンポーネントおよび/または関係を自動的に抽出するプロセスである。
オンライン討論を支援するプラットフォームの数が増えるにつれて、特に下流タスクのサポートにおいて、AMの必要性はますます緊急になっている。
関係ベースAM(Relation-based AM、RbAM)は、議論における合意(サポート)と不一致(アタック)の関係の特定に焦点を当てたAMの一形態である。
RbAMは難しい分類タスクであり、既存のメソッドは十分に機能しない。
本稿では,汎用大規模言語モデル (llm) が,最もパフォーマンスの高い (roberta ベース) ベースラインを大幅に上回ることができることを示す。
具体的には、Llama-2 と Mistral の2つのオープンソース LLM を10個のデータセットで実験する。
関連論文リスト
- A Generative Marker Enhanced End-to-End Framework for Argument Mining [0.8213829427624407]
Argument Mining (AM)は、Argumentative Components (AC)とそれに対応するArgumentative Relations (AR)を識別・抽出する。
本稿では、生成パラダイムに基づくエンドツーエンドフレームワークargTANLを紹介する。
Augmented Natural Language (ANL) というラベル付きテキストに議論構造をフレーム化する。
論文 参考訳(メタデータ) (2024-06-12T19:22:29Z) - Retrieval Meets Reasoning: Even High-school Textbook Knowledge Benefits Multimodal Reasoning [49.3242278912771]
RMR(Retrieval Meets Reasoning)と呼ばれる新しいマルチモーダルRAGフレームワークについて紹介する。
RMRフレームワークは、最も関連性の高い問合せ対を特定するために、バイモーダル検索モジュールを使用する。
これは、ベンチマークデータセットのスペクトルにわたって様々なビジョン言語モデルの性能を大幅に向上させる。
論文 参考訳(メタデータ) (2024-05-31T14:23:49Z) - MindStar: Enhancing Math Reasoning in Pre-trained LLMs at Inference Time [51.5039731721706]
MindStarは、大言語モデルの純粋に推論に基づく探索手法である。
推論タスクを探索問題として定式化し、最適な推論経路を特定するための2つの探索アイデアを提案する。
Llama-2-13BやMistral-7Bのようなオープンソースモデルの推論能力を大幅に向上させ、GPT-3.5やGrok-1に匹敵する性能を実現している。
論文 参考訳(メタデータ) (2024-05-25T15:07:33Z) - Assisted Debate Builder with Large Language Models [11.176301807521462]
ADBL2は議論を支援するツールである。
これは、関係に基づく引数マイニングを一般化し実行するための大きな言語モデルの能力に基づいている。
副産物として,関係に基づく引数マイニングのためのMistral-7B大規模言語モデルを提案する。
論文 参考訳(メタデータ) (2024-05-14T13:42:12Z) - Analyzing the Role of Semantic Representations in the Era of Large Language Models [104.18157036880287]
大規模言語モデル(LLM)の時代における意味表現の役割について検討する。
本稿では, AMRCoT と呼ばれる AMR-driven chain-of- Thought prompting 法を提案する。
AMRのどの入力例が役に立つかは予測できないが,複数単語の表現でエラーが発生する傾向にある。
論文 参考訳(メタデータ) (2024-05-02T17:32:59Z) - DMON: A Simple yet Effective Approach for Argument Structure Learning [33.96187185638286]
引数構造学習(Argument Structure Learning, ASL)は、引数間の関係を予測する。
広範に活用されているにもかかわらず、ASLは文間の複雑な関係を潜在的に構造化されていない言説で検証するので、難しい課題である。
ASLタスクのためのDual-tower Multi-scale cOnvolution Neural Network(DMON)と呼ばれるシンプルで効果的なアプローチを開発した。
論文 参考訳(メタデータ) (2024-05-02T11:56:16Z) - Efficient argument classification with compact language models and ChatGPT-4 refinements [0.0]
本稿では,議論マイニングにおける深層学習モデルの比較研究について述べる。
本稿では,BERTアーキテクチャに基づくアンサンブルモデルと,微調整モデルとしてのChatGPT-4について述べる。
以上の結果から,BERT+ChatGPT-4は他のTransformerベースモデルやLSTMベースモデルよりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-03-20T16:24:10Z) - CLadder: Assessing Causal Reasoning in Language Models [82.8719238178569]
我々は,大言語モデル (LLM) が因果関係をコヒーレントに説明できるかどうかを検討する。
ユデア・パールらによって仮定された「因果推論エンジン」にインスパイアされた、自然言語における因果推論という新たなNLPタスクを提案する。
論文 参考訳(メタデータ) (2023-12-07T15:12:12Z) - Exploring the Potential of Large Language Models in Computational Argumentation [54.85665903448207]
大規模言語モデル (LLM) は、文脈を理解し、自然言語を生成するという印象的な能力を実証している。
この研究は、ChatGPT、Flanモデル、LLaMA2モデルなどのLLMをゼロショットと少数ショットの両方で評価することを目的としている。
論文 参考訳(メタデータ) (2023-11-15T15:12:15Z) - Multimodal Chain-of-Thought Reasoning in Language Models [94.70184390935661]
言語(テキスト)と視覚(画像)のモダリティを2段階のフレームワークに組み込んだマルチモーダルCoTを提案する。
その結果,ScienceQA と A-OKVQA のベンチマークは,提案手法の有効性を示した。
論文 参考訳(メタデータ) (2023-02-02T07:51:19Z) - Full-Text Argumentation Mining on Scientific Publications [3.8754200816873787]
フルテキストSAMに対してADURとAREを組み合わせた逐次パイプラインモデルを提案する。
両サブタスクにおける事前学習言語モデル(PLM)の性能について,最初の解析を行った。
本稿では,非連続型ADUと談話コネクタの解釈が重要な課題であることを示す。
論文 参考訳(メタデータ) (2022-10-24T10:05:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。