論文の概要: From Arguments to Key Points: Towards Automatic Argument Summarization
- arxiv url: http://arxiv.org/abs/2005.01619v2
- Date: Tue, 9 Jun 2020 19:21:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-07 00:45:42.916134
- Title: From Arguments to Key Points: Towards Automatic Argument Summarization
- Title(参考訳): 引数からキーポイントへ:自動引数要約に向けて
- Authors: Roy Bar-Haim, Lilach Eden, Roni Friedman, Yoav Kantor, Dan Lahav, Noam
Slonim
- Abstract要約: 1トピックあたりのキーポイントの数は、たいていの場合、議論の大部分をカバーするのに十分であることを示す。
さらに、ドメインの専門家が事前にこれらのキーポイントを予測できることがわかりました。
- 参考スコア(独自算出の注目度): 17.875273745811775
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generating a concise summary from a large collection of arguments on a given
topic is an intriguing yet understudied problem. We propose to represent such
summaries as a small set of talking points, termed "key points", each scored
according to its salience. We show, by analyzing a large dataset of
crowd-contributed arguments, that a small number of key points per topic is
typically sufficient for covering the vast majority of the arguments.
Furthermore, we found that a domain expert can often predict these key points
in advance. We study the task of argument-to-key point mapping, and introduce a
novel large-scale dataset for this task. We report empirical results for an
extensive set of experiments with this dataset, showing promising performance.
- Abstract(参考訳): 与えられたトピックに関する議論の大規模なコレクションから簡潔な要約を生成することは、興味深いが未熟な問題である。
このような要約を,「キーポイント」と呼ばれる会話点の小さな集合として表現することを提案する。
群集に分散した議論の大規模なデータセットを解析することにより,話題ごとのキーポイントの数が少なければ,ほとんどの議論をカバーするのに十分であることを示す。
さらに、ドメインの専門家が事前にこれらのキーポイントを予測できることも分かりました。
本稿では,引数対キーポイントマッピングの課題について検討し,この課題に対して新たな大規模データセットを提案する。
我々は,このデータセットを用いた広範囲な実験の結果を報告し,有望な性能を示す。
関連論文リスト
- Indicative Summarization of Long Discussions [37.80285705350554]
本稿では,大規模言語モデル (LLM) を用いた非教師なしの手法を提案する。
提案手法では、まず、引数文をクラスタ化し、抽象的な要約としてクラスタラベルを生成し、生成されたクラスタラベルを引数フレームに分類する。
広範に最適化されたプロンプトエンジニアリングアプローチに基づいて、生成クラスタラベリングとフレーム分類のための19LLMを評価する。
論文 参考訳(メタデータ) (2023-11-03T12:44:59Z) - On Context Utilization in Summarization with Large Language Models [91.59419922599618]
大きな言語モデル(LLM)は抽象的な要約タスクに優れ、流動的で関連する要約を提供する。
最近の進歩は、100kトークンを超える長期入力コンテキストを扱う能力を拡張している。
要約における文脈利用と位置バイアスに関する最初の総合的研究を行う。
論文 参考訳(メタデータ) (2023-10-16T16:45:12Z) - From Key Points to Key Point Hierarchy: Structured and Expressive
Opinion Summarization [9.567280503274226]
キーポイント分析(KPA)は、最近テキストコメントの集合からきめ細かい洞察を得るために提案されている。
与えられたキーポイントの集合を階層に整理するタスクを,その特異性に応じて導入する。
我々は、ビジネスおよび製品レビューのキーポイント階層の高品質なベンチマークデータセットであるThinkPを開発した。
論文 参考訳(メタデータ) (2023-06-06T16:45:44Z) - ConvFinQA: Exploring the Chain of Numerical Reasoning in Conversational
Finance Question Answering [70.6359636116848]
本稿では,対話型質問応答における数値推論の連鎖を研究するために,新しい大規模データセットConvFinQAを提案する。
我々のデータセットは、現実世界の会話において、長距離で複雑な数値推論パスをモデル化する上で大きな課題となる。
論文 参考訳(メタデータ) (2022-10-07T23:48:50Z) - Diversity Over Size: On the Effect of Sample and Topic Sizes for
Argument Mining Datasets [65.91772010586605]
大きなArgument Miningデータセットはまれであり、議論文の認識には専門家の知識が必要である。
大きなArgument Miningデータセットを作成するコストと複雑さを考えると、許容可能なパフォーマンスがデータセットのサイズを拡大するために必要かどうかを問う。
この結果から,慎重に構成したトレーニングサンプルと,関連するタスクに事前学習したモデルを用いることで,トレーニングサンプルのサイズを少なくとも85%減らしながら,最大性能の95%を達成できることが示唆された。
論文 参考訳(メタデータ) (2022-05-23T17:14:32Z) - Key Point Analysis via Contrastive Learning and Extractive Argument
Summarization [26.104816072770305]
本稿では,第8回Argument Miningワークショップと連携して,キーポイント分析共有タスクに対する提案手法を提案する。
1つのコンポーネントは、キーポイントに引数をマッチングするために、シアムニューラルネットワークを介して対照的な学習を採用する。
自動評価と手動評価の両方において,提案手法は共有タスクに対する全ての提案の中で最良であった。
論文 参考訳(メタデータ) (2021-09-30T12:54:26Z) - ConvoSumm: Conversation Summarization Benchmark and Improved Abstractive
Summarization with Argument Mining [61.82562838486632]
我々は、さまざまなオンライン会話形式のニュースコメント、ディスカッションフォーラム、コミュニティ質問応答フォーラム、電子メールスレッドに関する4つの新しいデータセットをクラウドソースする。
我々は、データセットの最先端モデルをベンチマークし、データに関連する特徴を分析します。
論文 参考訳(メタデータ) (2021-06-01T22:17:13Z) - Unsupervised Summarization for Chat Logs with Topic-Oriented Ranking and
Context-Aware Auto-Encoders [59.038157066874255]
本稿では,手動ラベル付きデータを用いずにチャット要約を行うrankaeという新しいフレームワークを提案する。
RankAEは、中心性と多様性に応じてトピックの発話を同時に選択するトピック指向のランキング戦略で構成されています。
消音自動エンコーダは、選択された発話に基づいて簡潔でコンテキスト情報に基づいた要約を生成するように設計されています。
論文 参考訳(メタデータ) (2020-12-14T07:31:17Z) - WikiAsp: A Dataset for Multi-domain Aspect-based Summarization [69.13865812754058]
マルチドメインアスペクトベースの要約のための大規模データセットであるWikiAspを提案する。
具体的には、アスペクトアノテーションのプロキシとして、各記事のセクションタイトルとバウンダリを使用して、20の異なるドメインからウィキペディア記事を使用してデータセットを構築します。
その結果,既存の要約モデルがこの設定で直面する重要な課題,例えば引用されたソースの適切な代名詞処理,時間に敏感なイベントの一貫した説明などが浮き彫りになった。
論文 参考訳(メタデータ) (2020-11-16T10:02:52Z) - Aspect-Based Argument Mining [2.3148470932285665]
Aspect-Based Argument Mining (ABAM) の課題として,Aspect Term extract (ATE) と Nested Term extract (NS) の基本的なサブタスクについて述べる。
私たちはアスペクトをメインポイント(s)引数ユニットが対処していると見なしています。
この情報は、議論のランク付け、議論の要約、生成などの下流タスクや、アスペクトレベルの逆問題探索に重要である。
論文 参考訳(メタデータ) (2020-11-01T21:57:51Z) - Quantitative Argument Summarization and Beyond: Cross-Domain Key Point
Analysis [17.875273745811775]
完全自動解析が可能なキーポイントの自動抽出法を開発した。
キーポイント解析の適用性は議論データを超えていることを実証する。
さらなる貢献は、引数対キーポイントマッチングモデルの詳細な評価である。
論文 参考訳(メタデータ) (2020-10-11T23:01:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。