論文の概要: Enhancing LLM with Evolutionary Fine Tuning for News Summary Generation
- arxiv url: http://arxiv.org/abs/2307.02839v1
- Date: Thu, 6 Jul 2023 08:13:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-07 14:43:50.463808
- Title: Enhancing LLM with Evolutionary Fine Tuning for News Summary Generation
- Title(参考訳): ニュース要約生成のための進化的微調整によるLLMの強化
- Authors: Le Xiao and Xiaolin Chen
- Abstract要約: 本稿では,強力な自然言語理解と生成機能を備えたLLMを用いたニュース要約生成のための新しいパラダイムを提案する。
LLMを用いて、ニュース段落に含まれる事象から複数の構造化イベントパターンを抽出し、遺伝的アルゴリズムを用いてイベントパターンの集団を進化させ、LLMに入力する最も適応性の高いイベントパターンを選択し、ニュース要約を生成する。
ニュース概要生成装置(NSG)は、イベントパターンの集団を選択し、進化させ、ニュース要約を生成するように設計されている。
- 参考スコア(独自算出の注目度): 2.1828601975620257
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: News summary generation is an important task in the field of intelligence
analysis, which can provide accurate and comprehensive information to help
people better understand and respond to complex real-world events. However,
traditional news summary generation methods face some challenges, which are
limited by the model itself and the amount of training data, as well as the
influence of text noise, making it difficult to generate reliable information
accurately. In this paper, we propose a new paradigm for news summary
generation using LLM with powerful natural language understanding and
generative capabilities. We use LLM to extract multiple structured event
patterns from the events contained in news paragraphs, evolve the event pattern
population with genetic algorithm, and select the most adaptive event pattern
to input into the LLM to generate news summaries. A News Summary Generator
(NSG) is designed to select and evolve the event pattern populations and
generate news summaries. The experimental results show that the news summary
generator is able to generate accurate and reliable news summaries with some
generalization ability.
- Abstract(参考訳): ニュース要約生成はインテリジェンス分析の分野で重要なタスクであり、人々が複雑な現実世界の出来事を理解し、反応するのに役立つ正確で包括的な情報を提供する。
しかし、従来のニュース要約生成手法では、モデル自体やトレーニングデータの量、テキストノイズの影響に制限があるため、信頼性の高い情報を正確に生成することは困難である。
本稿では,自然言語理解と生成能力を備えたllmを用いたニュース要約生成のための新しいパラダイムを提案する。
LLMを用いて、ニュース段落に含まれる事象から複数の構造化イベントパターンを抽出し、遺伝的アルゴリズムを用いてイベントパターンの集団を進化させ、LLMに入力する最も適応性の高いイベントパターンを選択し、ニュース要約を生成する。
ニュース概要生成装置(NSG)は、イベントパターンの集団を選択し、進化させ、ニュース要約を生成するように設計されている。
実験の結果,ニュース要約生成器は,一般化能力を備えた正確で信頼性の高いニュース要約を生成できることがわかった。
関連論文リスト
- Fighting Fire with Fire: Adversarial Prompting to Generate a
Misinformation Detection Dataset [10.860133543817659]
誤報を識別するために, LLM を用いた銀標準地下構造データセットの作成手法を提案する。
具体的には、信頼できるニュース記事を考えると、我々の提案するアプローチは、LLMが元の記事の要約されたバージョンを自動的に生成するように促すことである。
本データセットの有用性を検討するために,誤情報検出のタスクに対して,教師付きモデルの範囲をトレーニングする一連の実験を行った。
論文 参考訳(メタデータ) (2024-01-09T10:38:13Z) - Generative Context-aware Fine-tuning of Self-supervised Speech Models [54.389711404209415]
生成型大規模言語モデル(LLM)生成コンテキスト情報の利用について検討する。
自己教師型音声モデルの微調整中に生成した情報を抽出する手法を提案する。
本稿では,SLUE と Libri-light のベンチマークを用いて,自動音声認識,名前付きエンティティ認識,感情分析を行う手法を提案する。
論文 参考訳(メタデータ) (2023-12-15T15:46:02Z) - A Simple yet Efficient Ensemble Approach for AI-generated Text Detection [0.5840089113969194]
大規模言語モデル(LLM)は、人間の文章によく似たテキストを生成する際、顕著な能力を示した。
人工的に生成されたテキストと人間が作成したテキストを区別できる自動化アプローチを構築することが不可欠である。
本稿では,複数の構成 LLM からの予測をまとめて,シンプルで効率的な解を提案する。
論文 参考訳(メタデータ) (2023-11-06T13:11:02Z) - Beyond MLE: Convex Learning for Text Generation [34.99340118597274]
我々は、機械翻訳のようなクローズドエンドテキスト生成タスクにおいて、最大推定(MLE)が必ずしも必要であり、最適であるとは限らないと論じる。
本研究では,データ分布全体を推定することなく,テキスト生成モデルを高い確率出力に集中させることができる,凸関数に基づく新たな学習目標のクラスを提案する。
論文 参考訳(メタデータ) (2023-10-26T08:08:43Z) - Prompt-and-Align: Prompt-Based Social Alignment for Few-Shot Fake News
Detection [50.07850264495737]
プロンプト・アンド・アライン(Prompt-and-Align、P&A)は、数発のフェイクニュース検出のための新しいプロンプトベースのパラダイムである。
我々はP&Aが、数発のフェイクニュース検出性能をかなりのマージンで新たな最先端に設定していることを示す。
論文 参考訳(メタデータ) (2023-09-28T13:19:43Z) - Fake News Detectors are Biased against Texts Generated by Large Language
Models [39.36284616311687]
フェイクニュースの拡散は、信頼を弱め、社会への脅威を訴える重要な課題として浮上している。
本稿では,人間の書き起こしとLLM生成の両方の誤情報を含むシナリオにおいて,偽ニュース検知器を評価するための新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-09-15T18:04:40Z) - Harnessing Explanations: LLM-to-LM Interpreter for Enhanced
Text-Attributed Graph Representation Learning [51.90524745663737]
重要なイノベーションは、機能として説明を使用することで、下流タスクにおけるGNNのパフォーマンス向上に利用できます。
提案手法は、確立されたTAGデータセットの最先端結果を実現する。
本手法はトレーニングを著しく高速化し,ogbn-arxivのベースラインに最も近い2.88倍の改善を実現した。
論文 参考訳(メタデータ) (2023-05-31T03:18:03Z) - SumREN: Summarizing Reported Speech about Events in News [51.82314543729287]
本稿では,各話者の反応を,それぞれの発言によって表現された反応を,ある事象に要約する新しい課題を提案する。
我々は,多文書要約ベンチマークSUMRENを作成し,様々な公開人物からの報告文の745の要約を作成した。
論文 参考訳(メタデータ) (2022-12-02T12:51:39Z) - Learning to Transfer Prompts for Text Generation [97.64625999380425]
転送可能なテキスト生成のための新しいプロンプトベース手法(PTG)を提案する。
まず、PTGは、様々なソース生成タスクの一連のソースプロンプトを学習し、ターゲット生成タスクを実行するためのターゲットプロンプトとしてこれらのプロンプトを転送する。
広範な実験では、PTGは微調整法よりも競争力または優れた結果が得られる。
論文 参考訳(メタデータ) (2022-05-03T14:53:48Z) - Event Transition Planning for Open-ended Text Generation [55.729259805477376]
オープンエンドテキスト生成タスクは、事前コンテキストに制限されたコヒーレントな継続を生成するためにモデルを必要とする。
オープンエンドテキスト生成におけるイベントを明示的にアレンジする新しい2段階手法を提案する。
我々のアプローチは、特別に訓練された粗大なアルゴリズムとして理解することができる。
論文 参考訳(メタデータ) (2022-04-20T13:37:51Z) - Topical Language Generation using Transformers [4.795530213347874]
本稿では,事前学習したLMとトピックモデリング情報を組み合わせることで,トピック言語生成(TLG)の新しいアプローチを提案する。
我々は,新しいパラメータと関数を導入して,生成したテキストに提示される話題特徴量に影響を与えるモデルを拡張する。
実験結果から,復号化の高速化とともに,コヒーレンシー,多様性,流線型性の向上が得られた。
論文 参考訳(メタデータ) (2021-03-11T03:45:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。