論文の概要: Can Large Language Models perform Relation-based Argument Mining?
- arxiv url: http://arxiv.org/abs/2402.11243v1
- Date: Sat, 17 Feb 2024 10:37:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-20 22:24:14.547216
- Title: Can Large Language Models perform Relation-based Argument Mining?
- Title(参考訳): 大規模言語モデルは関係ベースの引数マイニングを実行できるか?
- Authors: Deniz Gorur, Antonio Rago, Francesca Toni
- Abstract要約: 引数マイニング(Argument mining、AM)は、テキストから引数、それらのコンポーネント、および/またはコンポーネント間の関係を自動的に抽出するプロセスである。
関係ベースAM(Relation-based AM、RbAM)は、議論における合意(サポート)と不一致(アタック)の関係の特定に焦点を当てたAMの一形態である。
汎用大規模言語モデル (LLM) は, 適切な素数化, 誘導によって, 最高の性能(RoBERTaベース) のベースラインを大幅に上回ることを示す。
- 参考スコア(独自算出の注目度): 15.362683263839772
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Argument mining (AM) is the process of automatically extracting arguments,
their components and/or relations amongst arguments and components from text.
As the number of platforms supporting online debate increases, the need for AM
becomes ever more urgent, especially in support of downstream tasks.
Relation-based AM (RbAM) is a form of AM focusing on identifying agreement
(support) and disagreement (attack) relations amongst arguments. RbAM is a
challenging classification task, with existing methods failing to perform
satisfactorily. In this paper, we show that general-purpose Large Language
Models (LLMs), appropriately primed and prompted, can significantly outperform
the best performing (RoBERTa-based) baseline. Specifically, we experiment with
two open-source LLMs (Llama-2 and Mistral) with ten datasets.
- Abstract(参考訳): 引数マイニング(英: argument mining、am)は、テキストから引数とそのコンポーネントおよび/または関係を自動的に抽出するプロセスである。
オンライン討論を支援するプラットフォームの数が増えるにつれて、特に下流タスクのサポートにおいて、AMの必要性はますます緊急になっている。
関係ベースAM(Relation-based AM、RbAM)は、議論における合意(サポート)と不一致(アタック)の関係の特定に焦点を当てたAMの一形態である。
RbAMは難しい分類タスクであり、既存のメソッドは十分に機能しない。
本稿では,汎用大規模言語モデル (llm) が,最もパフォーマンスの高い (roberta ベース) ベースラインを大幅に上回ることができることを示す。
具体的には、Llama-2 と Mistral の2つのオープンソース LLM を10個のデータセットで実験する。
関連論文リスト
- Demystifying Multilingual Chain-of-Thought in Process Reward Modeling [71.12193680015622]
プロセス報酬モデル(PRM)を多言語設定に拡張するという課題に対処する。
我々は、7つの言語にまたがるデータセット上で多言語PRMを訓練し、それを英語から翻訳する。
本結果は,学習言語数と英語データ量の両方に対する多言語PRMの感度を強調した。
論文 参考訳(メタデータ) (2025-02-18T09:11:44Z) - Harnessing Large Language Models for Knowledge Graph Question Answering via Adaptive Multi-Aspect Retrieval-Augmentation [81.18701211912779]
本稿では,KG(Amar)フレームワーク上での適応型マルチアスペクト検索手法を提案する。
この方法は、エンティティ、リレーション、サブグラフを含む知識を検索し、検索した各テキストを即時埋め込みに変換する。
提案手法は2つの共通データセットに対して最先端の性能を達成した。
論文 参考訳(メタデータ) (2024-12-24T16:38:04Z) - MAmmoTH-VL: Eliciting Multimodal Reasoning with Instruction Tuning at Scale [66.73529246309033]
MLLM(Multimodal large language model)は、多モーダルタスクにおいて大きな可能性を秘めている。
既存の命令チューニングデータセットは、中間的合理性のないフレーズレベルの答えのみを提供する。
そこで本研究では,大規模マルチモーダル・インストラクション・チューニング・データセットを構築するためのスケーラブルで費用対効果の高い手法を提案する。
論文 参考訳(メタデータ) (2024-12-06T18:14:24Z) - A Generative Marker Enhanced End-to-End Framework for Argument Mining [0.8213829427624407]
Argument Mining (AM)は、Argumentative Components (AC)とそれに対応するArgumentative Relations (AR)を識別・抽出する。
本稿では、生成パラダイムに基づくエンドツーエンドフレームワークargTANLを紹介する。
Augmented Natural Language (ANL) というラベル付きテキストに議論構造をフレーム化する。
論文 参考訳(メタデータ) (2024-06-12T19:22:29Z) - MindStar: Enhancing Math Reasoning in Pre-trained LLMs at Inference Time [51.5039731721706]
MindStarは、大言語モデルの純粋に推論に基づく探索手法である。
推論タスクを探索問題として定式化し、最適な推論経路を特定するための2つの探索アイデアを提案する。
Llama-2-13BやMistral-7Bのようなオープンソースモデルの推論能力を大幅に向上させ、GPT-3.5やGrok-1に匹敵する性能を実現している。
論文 参考訳(メタデータ) (2024-05-25T15:07:33Z) - Assisted Debate Builder with Large Language Models [11.176301807521462]
ADBL2は議論を支援するツールである。
これは、関係に基づく引数マイニングを一般化し実行するための大きな言語モデルの能力に基づいている。
副産物として,関係に基づく引数マイニングのためのMistral-7B大規模言語モデルを提案する。
論文 参考訳(メタデータ) (2024-05-14T13:42:12Z) - Analyzing the Role of Semantic Representations in the Era of Large Language Models [104.18157036880287]
大規模言語モデル(LLM)の時代における意味表現の役割について検討する。
本稿では, AMRCoT と呼ばれる AMR-driven chain-of- Thought prompting 法を提案する。
AMRのどの入力例が役に立つかは予測できないが,複数単語の表現でエラーが発生する傾向にある。
論文 参考訳(メタデータ) (2024-05-02T17:32:59Z) - DMON: A Simple yet Effective Approach for Argument Structure Learning [33.96187185638286]
引数構造学習(Argument Structure Learning, ASL)は、引数間の関係を予測する。
広範に活用されているにもかかわらず、ASLは文間の複雑な関係を潜在的に構造化されていない言説で検証するので、難しい課題である。
ASLタスクのためのDual-tower Multi-scale cOnvolution Neural Network(DMON)と呼ばれるシンプルで効果的なアプローチを開発した。
論文 参考訳(メタデータ) (2024-05-02T11:56:16Z) - Efficient argument classification with compact language models and ChatGPT-4 refinements [0.0]
本稿では,議論マイニングにおける深層学習モデルの比較研究について述べる。
本稿では,BERTアーキテクチャに基づくアンサンブルモデルと,微調整モデルとしてのChatGPT-4について述べる。
以上の結果から,BERT+ChatGPT-4は他のTransformerベースモデルやLSTMベースモデルよりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-03-20T16:24:10Z) - Exploring the Potential of Large Language Models in Computational Argumentation [54.85665903448207]
大規模言語モデル (LLM) は、文脈を理解し、自然言語を生成するという印象的な能力を実証している。
この研究は、ChatGPT、Flanモデル、LLaMA2モデルなどのLLMをゼロショットと少数ショットの両方で評価することを目的としている。
論文 参考訳(メタデータ) (2023-11-15T15:12:15Z) - Full-Text Argumentation Mining on Scientific Publications [3.8754200816873787]
フルテキストSAMに対してADURとAREを組み合わせた逐次パイプラインモデルを提案する。
両サブタスクにおける事前学習言語モデル(PLM)の性能について,最初の解析を行った。
本稿では,非連続型ADUと談話コネクタの解釈が重要な課題であることを示す。
論文 参考訳(メタデータ) (2022-10-24T10:05:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。