論文の概要: ARQUSUMM: Argument-aware Quantitative Summarization of Online Conversations
- arxiv url: http://arxiv.org/abs/2511.16985v1
- Date: Fri, 21 Nov 2025 06:37:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-24 18:08:18.907346
- Title: ARQUSUMM: Argument-aware Quantitative Summarization of Online Conversations
- Title(参考訳): ARQUSUMM:オンライン会話の定量的要約
- Authors: An Quang Tang, Xiuzhen Zhang, Minh Ngoc Dinh, Zhuang Li,
- Abstract要約: 本稿では,議論における議論のクレーム・レアソン構造を明らかにするために,議論を定量的に要約する新しい課題を提案する。
定量的要約のために、ARQUSUMMは引数を集約し、それらのサポートを定量化するために、引数構造を意識したクラスタリングアルゴリズムを使用している。
- 参考スコア(独自算出の注目度): 11.33923212079359
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Online conversations have become more prevalent on public discussion platforms (e.g. Reddit). With growing controversial topics, it is desirable to summarize not only diverse arguments, but also their rationale and justification. Early studies on text summarization focus on capturing general salient information in source documents, overlooking the argumentative nature of online conversations. Recent research on conversation summarization although considers the argumentative relationship among sentences, fail to explicate deeper argument structure within sentences for summarization. In this paper, we propose a novel task of argument-aware quantitative summarization to reveal the claim-reason structure of arguments in conversations, with quantities measuring argument strength. We further propose ARQUSUMM, a novel framework to address the task. To reveal the underlying argument structure within sentences, ARQUSUMM leverages LLM few-shot learning grounded in the argumentation theory to identify propositions within sentences and their claim-reason relationships. For quantitative summarization, ARQUSUMM employs argument structure-aware clustering algorithms to aggregate arguments and quantify their support. Experiments show that ARQUSUMM outperforms existing conversation and quantitative summarization models and generate summaries representing argument structures that are more helpful to users, of high textual quality and quantification accuracy.
- Abstract(参考訳): 公開討論プラットフォーム(Redditなど)では、オンライン会話が一般的になっている。
議論の的となっているトピックが増えているため、多様な議論だけでなく、その根拠と正当化も要約することが望ましい。
テキスト要約の初期の研究は、オンライン会話の議論的な性質を見越して、ソース文書中の一般的な有能な情報を収集することに焦点を当てていた。
会話要約に関する最近の研究は、文間の議論的関係を考察しているが、要約のための文の内部のより深い議論構造を説明できない。
本稿では,議論における議論のクレーム・レアソン構造を明らかにするために,議論を定量的に要約する新しい課題を提案する。
さらに,その課題に対処する新しいフレームワークであるARQUSUMMを提案する。
文内の議論構造を明らかにするために、ARQUSUMMは、議論理論に根ざしたLLMの少数ショット学習を活用して、文内の命題とその主張-理性関係を識別する。
定量的要約のために、ARQUSUMMは引数を集約し、それらのサポートを定量化するために、引数構造を意識したクラスタリングアルゴリズムを使用している。
実験の結果、ARQUSUMMは既存の会話や定量的要約モデルよりも優れており、テキスト品質と定量化精度の点で、ユーザにとってより有用な引数構造を表す要約を生成することがわかった。
関連論文リスト
- Towards Comprehensive Argument Analysis in Education: Dataset, Tasks, and Method [14.718309497236694]
垂直次元と水平次元の両方から,14種類の微粒な関係型を提案する。
議論コンポーネント検出,関係予測,エッセイ自動評価という3つの課題について実験を行った。
本研究は, 文質評価のための詳細な論証アノテーションの重要性を強調し, 多次元論証分析を奨励するものである。
論文 参考訳(メタデータ) (2025-05-17T14:36:51Z) - Context-Aware Hierarchical Merging for Long Document Summarization [56.96619074316232]
本論文では,階層的なマージをソース文書からコンテキストと統合する手法を提案する。
法的および物語的領域を表すデータセットの実験結果は、文脈的拡張がゼロショットと階層的な融合ベースラインを一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2025-02-03T01:14:31Z) - Argue with Me Tersely: Towards Sentence-Level Counter-Argument
Generation [62.069374456021016]
本稿では,文レベル逆問題生成のためのArgTerselyベンチマークを提案する。
また,Arg-LlaMAによる高品質な逆問題生成手法を提案する。
論文 参考訳(メタデータ) (2023-12-21T06:51:34Z) - Enhancing Argument Structure Extraction with Efficient Leverage of
Contextual Information [79.06082391992545]
本稿では,コンテキスト情報を完全に活用する効率的なコンテキスト認識モデル(ECASE)を提案する。
文脈情報や議論情報を集約するために,シーケンスアテンションモジュールと距離重み付き類似度損失を導入する。
各種ドメインの5つのデータセットに対する実験により,我々のモデルが最先端の性能を達成することを示す。
論文 参考訳(メタデータ) (2023-10-08T08:47:10Z) - Explainable Topic-Enhanced Argument Mining from Heterogeneous Sources [33.62800469391487]
核エネルギーのような物議を醸す標的が与えられれば、議論の採鉱は異質な情報源から議論のテキストを識別することを目的としている。
現在のアプローチでは、ターゲット関連セマンティック情報を議論テキストに統合するより良い方法を模索している。
提案手法は, トピック・エンハンスな議論マイニング手法である。
論文 参考訳(メタデータ) (2023-07-22T17:26:55Z) - Exploring Discourse Structures for Argument Impact Classification [48.909640432326654]
本稿では、文脈経路に沿った2つの議論間の談話関係が、議論の説得力を特定する上で不可欠な要素であることを実証的に示す。
本研究では,文レベルの構造情報を大規模言語モデルから派生した文脈的特徴に注入・融合するDisCOCを提案する。
論文 参考訳(メタデータ) (2021-06-02T06:49:19Z) - ConvoSumm: Conversation Summarization Benchmark and Improved Abstractive
Summarization with Argument Mining [61.82562838486632]
我々は、さまざまなオンライン会話形式のニュースコメント、ディスカッションフォーラム、コミュニティ質問応答フォーラム、電子メールスレッドに関する4つの新しいデータセットをクラウドソースする。
我々は、データセットの最先端モデルをベンチマークし、データに関連する特徴を分析します。
論文 参考訳(メタデータ) (2021-06-01T22:17:13Z) - AMPERSAND: Argument Mining for PERSuAsive oNline Discussions [41.06165177604387]
本稿では,オンライン議論フォーラムにおける議論マイニングのための計算モデルを提案する。
我々のアプローチは、議論スレッド内の引数のコンポーネント間の関係を識別することに依存します。
我々のモデルは最近の最先端のアプローチと比較して大幅に改善されている。
論文 参考訳(メタデータ) (2020-04-30T10:33:40Z) - The Role of Pragmatic and Discourse Context in Determining Argument
Impact [39.70446357000737]
本稿では,議論のこの側面を研究するための新しいデータセットを提案する。
741件の議論の的となり、47,000件以上の主張がある。
議論的クレームの実践的・言論的文脈を取り入れた予測モデルを提案し,そのモデルが,特定の主張行内で個々のクレームが知覚する影響を予測するために,クレーム固有の言語的特徴に依存するモデルより優れていることを示す。
論文 参考訳(メタデータ) (2020-04-06T23:00:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。