論文の概要: Exploring Multi-Document Information Consolidation for Scientific
Sentiment Summarization
- arxiv url: http://arxiv.org/abs/2402.18005v1
- Date: Wed, 28 Feb 2024 02:40:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-29 16:35:19.106298
- Title: Exploring Multi-Document Information Consolidation for Scientific
Sentiment Summarization
- Title(参考訳): 科学的感性要約のための多文書情報統合の探索
- Authors: Miao Li and Jey Han Lau and Eduard Hovy
- Abstract要約: 本稿では,ヒトのメタレビュアのピアレビューにおいて,メタレビュアを書くために,感情統合の3層フレームワークに従うことを示す。
生成したメタレビューの品質を評価するための評価指標を提案する。
- 参考スコア(独自算出の注目度): 45.9443710073576
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern natural language generation systems with LLMs exhibit the capability
to generate a plausible summary of multiple documents; however, it is uncertain
if models truly possess the ability of information consolidation to generate
summaries, especially on those source documents with opinionated information.
To make scientific sentiment summarization more grounded, we hypothesize that
in peer review human meta-reviewers follow a three-layer framework of sentiment
consolidation to write meta-reviews and it represents the logic of summarizing
scientific sentiments in meta-review generation. The framework is validated via
human annotation. Based on the framework, we propose evaluation metrics to
assess the quality of generated meta-reviews, and we find that the hypothesis
of the sentiment consolidation framework works out empirically when we
incorporate it as prompts for LLMs to generate meta-reviews in extensive
experiments.
- Abstract(参考訳): llmを用いた現代の自然言語生成システムは、複数の文書の正確な要約を生成する能力を示しているが、モデルが本当に要約を生成するための情報統合能力を持っているかどうかは不明である。
科学的感情の要約をより基礎づけるために,人間のメタレビュアはメタレビュアを書くための3層的な感情統合の枠組みを踏襲し,メタレビュア生成における科学的感情の要約の論理を表現する。
このフレームワークは人間のアノテーションによって検証される。
この枠組みに基づいて, 生成したメタレビューの質を評価するための評価指標を提案し, 広範囲な実験でメタレビューを生成するためのLSMのプロンプトとして, 感情統合フレームワークの仮説が実証的に有効であることを見出した。
関連論文リスト
- Unstructured Evidence Attribution for Long Context Query Focused Summarization [46.713307974729844]
大規模言語モデル(LLM)は、ユーザクエリが与えられた場合、非常に長いコンテキストからコヒーレントな要約を生成することができる。
既存のシステムがどのようにして、そのコンテキストから構造化されていない証拠を生成し、適切に引用するのに苦労しているかを示す。
論文 参考訳(メタデータ) (2025-02-20T09:57:42Z) - Think&Cite: Improving Attributed Text Generation with Self-Guided Tree Search and Progress Reward Modeling [63.98194996746229]
大型言語モデル(LLM)は幻覚を起こし、事実的に誤った情報を生み出す傾向にある。
我々はThink&Citeと呼ばれる新しいフレームワークを提案し、検索と統合された多段階推論問題として属性付きテキスト生成を定式化する。
論文 参考訳(メタデータ) (2024-12-19T13:55:48Z) - Meta Knowledge for Retrieval Augmented Large Language Models [0.0]
大規模言語モデル(LLM)のための新しいデータ中心型RAGワークフローを提案する。
提案手法は,各文書にメタデータと合成質問文(QA)を生成することに依存する。
合成質問マッチングによる拡張クエリの使用は、従来のRAGパイプラインよりも大幅に優れていることを示す。
論文 参考訳(メタデータ) (2024-08-16T20:55:21Z) - Meta-Task Prompting Elicits Embeddings from Large Language Models [54.757445048329735]
本稿では,新しい教師なしテキスト埋め込み手法であるMeta-Task Prompting with Explicit One-Word Limitationを紹介する。
モデル微調整を必要とせずに,大規模言語モデルから高品質な文埋め込みを生成する。
提案法は,多種多様なシナリオにまたがって生成を組み込む汎用的で資源効率のよい手法を提供する。
論文 参考訳(メタデータ) (2024-02-28T16:35:52Z) - Exploring Precision and Recall to assess the quality and diversity of LLMs [82.21278402856079]
我々はtextscLlama-2 や textscMistral のような大規模言語モデル (LLM) のための新しい評価フレームワークを提案する。
このアプローチにより、コーパスの整合を必要とせず、生成したテキストの品質と多様性を微妙に評価できる。
論文 参考訳(メタデータ) (2024-02-16T13:53:26Z) - Knowledge-Centric Templatic Views of Documents [2.654058995940072]
著者はしばしば、スライドデッキ、ニュースレター、レポート、ポスターなど、様々な文書形式でアイデアを共有している。
文書生成装置の品質測定に適応できる新しい統一評価フレームワークを提案する。
人間の評価を行い,提案手法を用いて作成した文書の82%を利用者が好んでいることを示す。
論文 参考訳(メタデータ) (2024-01-13T01:22:15Z) - Summarizing Multiple Documents with Conversational Structure for
Meta-Review Generation [45.9443710073576]
学術論文のメタレビューを作成するための新しいデータセットであるPeerSumを提示する。
Rammerは、会話構造に基づくスパースアテンションと、メタデータ機能を予測するトレーニング目標を利用するモデルである。
論文 参考訳(メタデータ) (2023-05-02T15:18:18Z) - Large Language Models are Diverse Role-Players for Summarization
Evaluation [82.31575622685902]
文書要約の品質は、文法や正しさといった客観的な基準と、情報性、簡潔さ、魅力といった主観的な基準で人間の注釈者によって評価することができる。
BLUE/ROUGEのような自動評価手法のほとんどは、上記の次元を適切に捉えることができないかもしれない。
目的と主観の両面から生成されたテキストと参照テキストを比較し,総合的な評価フレームワークを提供するLLMに基づく新しい評価フレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-27T10:40:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。