論文の概要: Indicative Summarization of Long Discussions
- arxiv url: http://arxiv.org/abs/2311.01882v1
- Date: Fri, 3 Nov 2023 12:44:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-06 14:07:26.087967
- Title: Indicative Summarization of Long Discussions
- Title(参考訳): 長い議論の示唆的要約
- Authors: Shahbaz Syed, Dominik Schwabe, Khalid Al-Khatib, Martin Potthast
- Abstract要約: 本稿では,大規模言語モデル (LLM) を用いた非教師なしの手法を提案する。
提案手法では、まず、引数文をクラスタ化し、抽象的な要約としてクラスタラベルを生成し、生成されたクラスタラベルを引数フレームに分類する。
広範に最適化されたプロンプトエンジニアリングアプローチに基づいて、生成クラスタラベリングとフレーム分類のための19LLMを評価する。
- 参考スコア(独自算出の注目度): 37.80285705350554
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Online forums encourage the exchange and discussion of different stances on
many topics. Not only do they provide an opportunity to present one's own
arguments, but may also gather a broad cross-section of others' arguments.
However, the resulting long discussions are difficult to overview. This paper
presents a novel unsupervised approach using large language models (LLMs) to
generating indicative summaries for long discussions that basically serve as
tables of contents. Our approach first clusters argument sentences, generates
cluster labels as abstractive summaries, and classifies the generated cluster
labels into argumentation frames resulting in a two-level summary. Based on an
extensively optimized prompt engineering approach, we evaluate 19~LLMs for
generative cluster labeling and frame classification. To evaluate the
usefulness of our indicative summaries, we conduct a purpose-driven user study
via a new visual interface called Discussion Explorer: It shows that our
proposed indicative summaries serve as a convenient navigation tool to explore
long discussions.
- Abstract(参考訳): オンラインフォーラムでは、さまざまなトピックに対する異なる姿勢の交換と議論が奨励されている。
彼らは自分の議論を提示する機会を提供するだけでなく、他人の議論を広く横断的に集めることもできる。
しかし、結果として生じる長い議論は概観が難しい。
本稿では,大言語モデル(llms)を用いて,コンテンツの表として機能する長文議論の要約文を生成する新しい非教師なしアプローチを提案する。
提案手法では,まず議論文をクラスタ化し,抽象要約としてクラスタラベルを生成し,生成したクラスタラベルを議論フレームに分類することで2段階要約を行う。
広範に最適化されたプロンプトエンジニアリングアプローチに基づいて、生成クラスタラベリングとフレーム分類のための19〜LLMを評価する。
提案手法の有効性を評価するために,提案手法は,対話エクスプローラと呼ばれる新しいビジュアルインタフェースを用いて,目的主導のユーザ調査を行い,提案手法が長い議論を探索するための便利なナビゲーションツールとなることを示す。
関連論文リスト
- Hierarchical Indexing for Retrieval-Augmented Opinion Summarization [60.5923941324953]
本稿では,抽出アプローチの帰属性と拡張性と,大規模言語モデル(LLM)の一貫性と拡散性を組み合わせた,教師なし抽象的意見要約手法を提案する。
我々の方法であるHIROは、意味的に整理された離散的な階層を通して文を経路にマッピングするインデックス構造を学習する。
推測時にインデックスを投入し、入力レビューから人気意見を含む文群を識別し、検索する。
論文 参考訳(メタデータ) (2024-03-01T10:38:07Z) - Argue with Me Tersely: Towards Sentence-Level Counter-Argument
Generation [62.069374456021016]
本稿では,文レベル逆問題生成のためのArgTerselyベンチマークを提案する。
また,Arg-LlaMAによる高品質な逆問題生成手法を提案する。
論文 参考訳(メタデータ) (2023-12-21T06:51:34Z) - Author Clustering and Topic Estimation for Short Texts [69.54017251622211]
同じ文書中の単語間の強い依存をモデル化することにより、遅延ディリクレ割当を拡張できる新しいモデルを提案する。
同時にユーザをクラスタ化し、ホック後のクラスタ推定の必要性を排除しています。
我々の手法は、短文で生じる問題に対する従来のアプローチよりも、-または----------- で機能する。
論文 参考訳(メタデータ) (2021-06-15T20:55:55Z) - ConvoSumm: Conversation Summarization Benchmark and Improved Abstractive
Summarization with Argument Mining [61.82562838486632]
我々は、さまざまなオンライン会話形式のニュースコメント、ディスカッションフォーラム、コミュニティ質問応答フォーラム、電子メールスレッドに関する4つの新しいデータセットをクラウドソースする。
我々は、データセットの最先端モデルをベンチマークし、データに関連する特徴を分析します。
論文 参考訳(メタデータ) (2021-06-01T22:17:13Z) - Unsupervised Summarization for Chat Logs with Topic-Oriented Ranking and
Context-Aware Auto-Encoders [59.038157066874255]
本稿では,手動ラベル付きデータを用いずにチャット要約を行うrankaeという新しいフレームワークを提案する。
RankAEは、中心性と多様性に応じてトピックの発話を同時に選択するトピック指向のランキング戦略で構成されています。
消音自動エンコーダは、選択された発話に基づいて簡潔でコンテキスト情報に基づいた要約を生成するように設計されています。
論文 参考訳(メタデータ) (2020-12-14T07:31:17Z) - Discourse Parsing of Contentious, Non-Convergent Online Discussions [0.16311150636417257]
対話論のバフティニア理論に着想を得て,新しい理論と計算の枠組みを提案する。
我々は,分散戦略の階層を反映する新しい談話アノテーションスキーマを開発した。
議論のないオンライン議論の最初のラベル付きデータセットを共有します。
論文 参考訳(メタデータ) (2020-12-08T17:36:39Z) - From Arguments to Key Points: Towards Automatic Argument Summarization [17.875273745811775]
1トピックあたりのキーポイントの数は、たいていの場合、議論の大部分をカバーするのに十分であることを示す。
さらに、ドメインの専門家が事前にこれらのキーポイントを予測できることがわかりました。
論文 参考訳(メタデータ) (2020-05-04T16:24:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。