論文の概要: Controllable Abstraction in Summary Generation for Large Language Models via Prompt Engineering
- arxiv url: http://arxiv.org/abs/2510.15436v1
- Date: Fri, 17 Oct 2025 08:50:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 20:17:34.542786
- Title: Controllable Abstraction in Summary Generation for Large Language Models via Prompt Engineering
- Title(参考訳): プロンプト工学による大規模言語モデルの要約生成における制御可能な抽象化
- Authors: Xiangchen Song, Yuchen Liu, Yaxuan Luan, Jinxu Guo, Xiaofan Guo,
- Abstract要約: 本研究では,プロンプトエンジニアリングに基づく大規模言語モデルに対して,制御可能な要約生成手法を提案する。
入力テキスト上でセマンティック分析、トピックモデリング、ノイズ制御を実行することで、抽象度の異なる要約を生成する。
この実験では、CNN/Daily Mailデータセットを使用して、異なるプロンプトの長さ、データノイズ、テキストタイプを詳細に分析する。
- 参考スコア(独自算出の注目度): 9.192759263055942
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This study presents a controllable abstract summary generation method for large language models based on prompt engineering. To address the issues of summary quality and controllability in traditional methods, we design a multi-stage prompt generation framework. This framework generates summaries with varying levels of abstraction by performing semantic analysis, topic modeling, and noise control on the input text. The experiment uses the CNN/Daily Mail dataset and provides a detailed analysis of different prompt lengths, data noise, and text types. The experimental results show that prompt length has a significant impact on the quality of generated summaries. Both very short and very long prompt tokens result in a decrease in summary quality. Data noise also negatively affects the summary generation process. As noise levels increase, the ROUGE-L score gradually decreases. Furthermore, different text types have varying effects on the model's ability to generate summaries. The model performs best when handling news texts, while its performance is worse when processing academic articles. This research provides new insights into improving summary generation using large language models, particularly in how controlling prompt strategies and optimizing text preprocessing can enhance summary accuracy and controllability.
- Abstract(参考訳): 本研究では,プロンプトエンジニアリングに基づく大規模言語モデルに対して,制御可能な要約生成手法を提案する。
従来の手法における要約品質と制御性の問題に対処するため,我々は多段階のプロンプト生成フレームワークを設計する。
本フレームワークは, 意味解析, トピックモデリング, および入力テキスト上でのノイズ制御を行うことにより, 抽象度の異なる要約を生成する。
この実験では、CNN/Daily Mailデータセットを使用して、異なるプロンプトの長さ、データノイズ、テキストタイプを詳細に分析する。
実験結果から,速さが生成した要約の質に有意な影響を及ぼすことが示された。
非常に短いプロンプトと非常に長いプロンプトの両方が、要約品質の低下をもたらす。
データノイズも要約生成プロセスに悪影響を及ぼす。
ノイズレベルが増加するにつれて、ROUGE-Lスコアは徐々に低下する。
さらに、異なるテキストタイプは、モデルが要約を生成する能力に様々な影響を及ぼす。
このモデルはニューステキストを扱う際には最善を尽くすが、学術論文を処理する場合、その性能は悪化する。
本研究は,大規模言語モデルを用いた要約生成の改善に関する新たな知見を提供する。特に,プロンプト戦略の制御とテキスト前処理の最適化により,要約精度と可制御性が向上する。
関連論文リスト
- Survey on Abstractive Text Summarization: Dataset, Models, and Metrics [0.8184895397419141]
トランスフォーマーモデルは、それらの注意機構、一般的な知識に基づく事前訓練、下流タスクの微調整によって区別される。
本研究は,テキスト要約モデルにおける技術の現状を,抽象的要約アプローチに特化して検討する。
論文 参考訳(メタデータ) (2024-12-22T21:18:40Z) - Assessment of Transformer-Based Encoder-Decoder Model for Human-Like Summarization [0.05852077003870416]
この研究は、トランスフォーマーベースのBARTモデルを利用して人間のような要約を行う。
エンコーダ・デコーダモデルの訓練および微調整において,多種多様なサンプル記事を用いて検証を行った。
微調整モデルの性能をベースライン事前訓練モデルと比較する。
BBC Newsの記事に載った実証的な結果は、人間によって書かれた金の標準要約の方が17%も現実的に一貫性があることを示している。
論文 参考訳(メタデータ) (2024-10-22T09:25:04Z) - Improving Long Text Understanding with Knowledge Distilled from Summarization Model [17.39913210351487]
本稿では,要約モデルのgist検出能力を活用するためのemphGist Detectorを提案する。
Gist Detectorはまず、要約モデルから抽出したギスト検出知識を学習し、その後、ギスト認識表現を生成する。
提案手法は,長い文書分類,遠隔教師付きオープンドメイン質問応答,非並列テキストスタイル転送の3つのタスクで評価する。
論文 参考訳(メタデータ) (2024-05-08T10:49:39Z) - Fine-tuning GPT-3 for Russian Text Summarization [77.34726150561087]
本稿では,テキストを要約するruGPT3(ruGPT3)機能について紹介し,それに対応する人文要約を用いてロシア語ニュースのコーパスを微調整する。
得られたテキストを一連のメトリクスで評価し、アーキテクチャや損失関数に付加的な変更を加えることなく、我々のソリューションが最先端のモデルの性能を上回ることができることを示す。
論文 参考訳(メタデータ) (2021-08-07T19:01:40Z) - Controllable Abstractive Dialogue Summarization with Sketch Supervision [56.59357883827276]
本モデルは,最大50.79のROUGE-Lスコアを持つ最大対話要約コーパスSAMSumの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-05-28T19:05:36Z) - The Factual Inconsistency Problem in Abstractive Text Summarization: A
Survey [25.59111855107199]
Seq2Seqフレームワークによって開発されたニューラルエンコーダデコーダモデルは、より抽象的な要約を生成するという目標を達成するために提案されている。
高いレベルでは、そのようなニューラルネットワークは、使用される単語やフレーズに制約を加えることなく、自由に要約を生成することができる。
しかし、神経モデルの抽象化能力は二重刃の剣である。
論文 参考訳(メタデータ) (2021-04-30T08:46:13Z) - Improving Faithfulness in Abstractive Summarization with Contrast
Candidate Generation and Selection [54.38512834521367]
モデル非依存後処理技術としてのコントラスト候補生成と選択について検討する。
代替候補要約を生成して判別補正モデルを学習する。
このモデルを使用して、最終的な出力サマリーとして最適な候補を選択する。
論文 参考訳(メタデータ) (2021-04-19T05:39:24Z) - Multi-Fact Correction in Abstractive Text Summarization [98.27031108197944]
Span-Factは、質問応答モデルから学んだ知識を活用して、スパン選択によるシステム生成サマリーの補正を行う2つの事実補正モデルのスイートである。
我々のモデルは、ソースコードのセマンティック一貫性を確保するために、反復的または自動回帰的にエンティティを置き換えるために、シングルまたはマルチマスキング戦略を採用している。
実験の結果,自動測定と人的評価の両面において,要約品質を犠牲にすることなく,システム生成要約の事実整合性を大幅に向上させることができた。
論文 参考訳(メタデータ) (2020-10-06T02:51:02Z) - Few-Shot Learning for Opinion Summarization [117.70510762845338]
オピニオン要約は、複数の文書で表現された主観的な情報を反映したテキストの自動生成である。
本研究では,要約テキストの生成をブートストラップするのには,少数の要約でも十分であることを示す。
提案手法は, 従来の抽出法および抽象法を, 自動的, 人的評価において大きく上回っている。
論文 参考訳(メタデータ) (2020-04-30T15:37:38Z) - Unsupervised Opinion Summarization with Noising and Denoising [85.49169453434554]
ユーザレビューのコーパスから合成データセットを作成し、レビューをサンプリングし、要約のふりをして、ノイズのあるバージョンを生成します。
テスト時に、モデルは本物のレビューを受け入れ、健全な意見を含む要約を生成し、合意に達しないものをノイズとして扱います。
論文 参考訳(メタデータ) (2020-04-21T16:54:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。