論文の概要: Guide-to-Explain for Controllable Summarization
- arxiv url: http://arxiv.org/abs/2411.12460v1
- Date: Tue, 19 Nov 2024 12:36:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-20 13:38:13.337166
- Title: Guide-to-Explain for Controllable Summarization
- Title(参考訳): 制御可能な要約のためのガイド・トゥ・説明
- Authors: Sangwon Ryu, Heejin Do, Daehee Kim, Yunsu Kim, Gary Geunbae Lee, Jungseul Ok,
- Abstract要約: 大規模言語モデル (LLMs) による制御可能な要約は未定である。
制御可能な要約のためのガイド・ツー・説明フレームワーク(GTE)を提案する。
我々のフレームワークは、初期ドラフトで間違った属性を識別し、前回の出力でエラーを説明するのに役立てます。
- 参考スコア(独自算出の注目度): 11.904090197598505
- License:
- Abstract: Recently, large language models (LLMs) have demonstrated remarkable performance in abstractive summarization tasks. However, controllable summarization with LLMs remains underexplored, limiting their ability to generate summaries that align with specific user preferences. In this paper, we first investigate the capability of LLMs to control diverse attributes, revealing that they encounter greater challenges with numerical attributes, such as length and extractiveness, compared to linguistic attributes. To address this challenge, we propose a guide-to-explain framework (GTE) for controllable summarization. Our GTE framework enables the model to identify misaligned attributes in the initial draft and guides it in explaining errors in the previous output. Based on this reflection, the model generates a well-adjusted summary. As a result, by allowing the model to reflect on its misalignment, we generate summaries that satisfy the desired attributes in surprisingly fewer iterations than other iterative methods solely using LLMs.
- Abstract(参考訳): 近年,大言語モデル (LLM) は抽象的な要約タスクにおいて顕著な性能を示した。
しかし、LLMによる制御可能な要約は未定であり、特定のユーザの好みに合わせて要約を生成する能力が制限されている。
本稿では,LLMが様々な属性を制御する能力について検討し,言語的属性と比較して,長さや抽出性などの数値的属性で大きな課題に直面していることを明らかにする。
この課題に対処するために、制御可能な要約のためのガイド・ツー・説明フレームワーク(GTE)を提案する。
我々のGTEフレームワークは、初期ドラフトで間違った属性を識別し、前回の出力でエラーを説明できるようにします。
この反射に基づいて、モデルはよく調整された要約を生成する。
その結果、モデルが不整合を反映させることで、所望の属性を驚くほど少ないイテレーションで満たす要約を生成する。
関連論文リスト
- SELF-GUIDE: Better Task-Specific Instruction Following via Self-Synthetic Finetuning [70.21358720599821]
大規模言語モデル(LLM)は、適切な自然言語プロンプトを提供する際に、多様なタスクを解決するという約束を持っている。
学生LLMからタスク固有の入出力ペアを合成する多段階メカニズムであるSELF-GUIDEを提案する。
ベンチマークの指標から,分類タスクに約15%,生成タスクに18%の絶対的な改善を報告した。
論文 参考訳(メタデータ) (2024-07-16T04:41:58Z) - Assessing LLMs for Zero-shot Abstractive Summarization Through the Lens of Relevance Paraphrasing [37.400757839157116]
大言語モデル(LLM)は、与えられた記事に対する抽象的な要約のゼロショット生成において最先端のパフォーマンスを達成した。
本稿では,LLMのロバスト性を測定するためのシンプルな戦略であるrelevance paraphrasingを提案する。
論文 参考訳(メタデータ) (2024-06-06T12:08:43Z) - Identifying Factual Inconsistencies in Summaries: Grounding LLM Inference via Task Taxonomy [48.29181662640212]
事実的矛盾は、生成モデルによる忠実な要約にとって重要なハードルとなる。
我々は,要約中の不整合事実のキーエラータイプを集約し,ゼロショットと教師付きパラダイムの両方を容易にするためにそれらを組み込んだ。
論文 参考訳(メタデータ) (2024-02-20T08:41:23Z) - Can Large Language Model Summarizers Adapt to Diverse Scientific Communication Goals? [19.814974042343028]
科学的な要約タスクにおける大規模言語モデル(LLM)の可制御性について検討する。
MuP レビュー生成タスクでは,非微調整 LLM が人間より優れていることが判明した。
論文 参考訳(メタデータ) (2024-01-18T23:00:54Z) - Revisiting Large Language Models as Zero-shot Relation Extractors [8.953462875381888]
リレーショナル抽出(RE)は、ゼロショット設定下であっても、一定のラベル付きまたはラベルなしのデータを一貫して含む。
近年の研究では、大きな言語モデル(LLM)が、単に自然言語のプロンプトを与えられただけで、新しいタスクにうまく移行していることが示されている。
本研究はゼロショット関係抽出器としてLLMを探索することに焦点を当てる。
論文 参考訳(メタデータ) (2023-10-08T06:17:39Z) - Summarization is (Almost) Dead [49.360752383801305]
我々は,大規模言語モデル(LLM)のゼロショット生成能力を評価するため,新しいデータセットを開発し,人間による評価実験を行う。
本研究は, 微調整モデルにより生成した要約や要約よりも, LLM生成要約に対する人間の評価において, 明らかな優位性を示した。
論文 参考訳(メタデータ) (2023-09-18T08:13:01Z) - LLMs Understand Glass-Box Models, Discover Surprises, and Suggest
Repairs [10.222281712562705]
大規模言語モデル(LLM)は解釈可能なモデルを扱うのに非常に優れていることを示す。
推論に階層的なアプローチを採用することで、LLMは包括的なモデルレベルの要約を提供することができる。
パッケージ $textttTalkToEBM$ をオープンソース LLM-GAM インターフェースとして提示する。
論文 参考訳(メタデータ) (2023-08-02T13:59:35Z) - On Learning to Summarize with Large Language Models as References [101.79795027550959]
大型言語モデル (LLM) は、一般的な要約データセットにおける元の参照要約よりも人間のアノテーションに好まれる。
より小さなテキスト要約モデルに対するLLM-as-reference学習設定について検討し,その性能が大幅に向上するかどうかを検討する。
論文 参考訳(メタデータ) (2023-05-23T16:56:04Z) - Guiding Large Language Models via Directional Stimulus Prompting [114.84930073977672]
我々は,特定の所望の出力に対して,ブラックボックス大言語モデル(LLM)を導くための新しいフレームワークであるDirectional Stimulus Promptingを紹介する。
LLMを直接調整するのではなく、小さな調整可能なポリシーモデルを用いて各入力インスタンスに対して補助的な指向性刺激プロンプトを生成する。
論文 参考訳(メタデータ) (2023-02-22T17:44:15Z) - MACSum: Controllable Summarization with Mixed Attributes [56.685735509260276]
MACSumは、混合属性を制御するための最初の人間アノテーションによる要約データセットである。
混合制御可能な要約の新しいタスクに対する2つの単純かつ効果的なパラメータ効率のアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-09T17:17:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。