論文の概要: Empowering NLG: Offline Reinforcement Learning for Informal
Summarization in Online Domains
- arxiv url: http://arxiv.org/abs/2306.17174v1
- Date: Sat, 17 Jun 2023 13:00:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-09 14:19:08.727259
- Title: Empowering NLG: Offline Reinforcement Learning for Informal
Summarization in Online Domains
- Title(参考訳): NLGの強化:オンラインドメインにおけるインフォーマル要約のためのオフライン強化学習
- Authors: Zhi-Xuan Tai and Po-Chuan Chen
- Abstract要約: 本稿では,ユーザエクスペリエンスを最適化し,ユーザサポートエージェントの作業負荷を軽減することを目的とした,革新的な自然言語生成(NLG)アプローチを提案する。
我々の主な目的は、オフラインの強化学習技術を用いて、オンライン記事や投稿の非公式な要約を生成することである。
実験の結果、平均的な「様」スコアは0.09954378から0.5000152に大きく改善された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Our research introduces an innovative Natural Language Generation (NLG)
approach that aims to optimize user experience and alleviate the workload of
human customer support agents. Our primary objective is to generate informal
summaries for online articles and posts using an offline reinforcement learning
technique. In our study, we compare our proposed method with existing
approaches to text generation and provide a comprehensive overview of our
architectural design, which incorporates crawling, reinforcement learning, and
text generation modules. By presenting this original approach, our paper makes
a valuable contribution to the field of NLG by offering a fresh perspective on
generating natural language summaries for online content. Through the
implementation of Empowering NLG, we are able to generate higher-quality
replies in the online domain. The experimental results demonstrate a
significant improvement in the average "like" score, increasing from 0.09954378
to 0.5000152. This advancement has the potential to enhance the efficiency and
effectiveness of customer support services and elevate the overall user
experience when consuming online content.
- Abstract(参考訳): 本研究は,ユーザエクスペリエンスを最適化し,ユーザサポートエージェントの作業負荷を軽減することを目的とした,革新的な自然言語生成(NLG)アプローチを提案する。
我々の主な目的は、オフライン強化学習技術を用いて、オンライン記事や投稿の非公式要約を生成することである。
本研究では,提案手法を既存のテキスト生成手法と比較し,クロール,強化学習,テキスト生成モジュールを組み込んだアーキテクチャ設計の概要を提供する。
本論文は,本手法を提示することにより,オンラインコンテンツに対する自然言語要約生成の新たな視点を提供することで,NLG分野に貴重な貢献をする。
エンパワーングNLGの実装により、我々はオンラインドメインで高品質な応答を生成することができる。
実験の結果、平均的な「様」スコアは0.09954378から0.5000152に大きく改善された。
この進歩は、カスタマーサポートサービスの効率と効果を高め、オンラインコンテンツを使用する際のユーザーエクスペリエンス全体を向上させる可能性がある。
関連論文リスト
- Supportiveness-based Knowledge Rewriting for Retrieval-augmented Language Modeling [65.72918416258219]
支援性に基づく知識書き換え(SKR)は、LLM生成に本質的に最適化された堅牢でプラガブルな知識書き換えである。
知識支援に基づき、まず、リライターモデルのためのトレーニングデータキュレーション戦略を設計する。
次に、生成したリライトを最適な支持度に調整するために、直接選好最適化(DPO)アルゴリズムを導入する。
論文 参考訳(メタデータ) (2024-06-12T11:52:35Z) - Online Personalizing White-box LLMs Generation with Neural Bandits [17.23811164142004]
本研究では,ユーザフィードバックに基づくソフト命令の埋め込みを動的に最適化するために,ニューラルバンディットアルゴリズムを用いた革新的なオンライン手法を提案する。
特にNeuralTSは、パーソナライズされたニュースの見出し生成を大幅に改善し、最高のROUGEスコアの62.9%を達成している。
論文 参考訳(メタデータ) (2024-04-24T18:13:12Z) - Enhancing Court View Generation with Knowledge Injection and Guidance [43.32071790286732]
裁判所ビュー生成(CVG)は、原告の主張と事実記述に基づいて裁判所ビューを生成することを目的としている。
PLMは自然言語生成の進歩を誇示しているが、CVGの複雑で知識集約的な領域への応用は、しばしば固有の制限を明らかにしている。
PLMを用いてCVGを活性化させる新しい手法であるKnowledge Injection and Guidance(KIG)を提案する。
訓練段階において,ドメイン知識を効率的に組み込むため,即時チューニングのための知識注入プロンプトエンコーダを導入し,計算オーバーヘッドを低減した。
論文 参考訳(メタデータ) (2024-03-07T09:51:11Z) - LLM-DA: Data Augmentation via Large Language Models for Few-Shot Named
Entity Recognition [67.96794382040547]
$LLM-DA$は、数発のNERタスクのために、大きな言語モデル(LLM)に基づいた、新しいデータ拡張テクニックである。
提案手法では,14のコンテキスト書き換え戦略を採用し,同一タイプのエンティティ置換を設計し,ロバスト性を高めるためにノイズ注入を導入する。
論文 参考訳(メタデータ) (2024-02-22T14:19:56Z) - Exploring Large Language Model for Graph Data Understanding in Online
Job Recommendations [63.19448893196642]
本稿では,大規模言語モデルが提供するリッチな文脈情報と意味表現を利用して行動グラフを解析する新しいフレームワークを提案する。
この機能を利用することで、個々のユーザに対してパーソナライズされた、正確なジョブレコメンデーションが可能になる。
論文 参考訳(メタデータ) (2023-07-10T11:29:41Z) - Iterative Zero-Shot LLM Prompting for Knowledge Graph Construction [104.29108668347727]
本稿では,最新の生成型大規模言語モデルの可能性を活用する,革新的な知識グラフ生成手法を提案する。
このアプローチは、新しい反復的なゼロショットと外部知識に依存しない戦略を含むパイプラインで伝達される。
我々は、我々の提案がスケーラブルで多目的な知識グラフ構築に適したソリューションであり、異なる新しい文脈に適用できると主張している。
論文 参考訳(メタデータ) (2023-07-03T16:01:45Z) - Cluster Based Deep Contextual Reinforcement Learning for top-k
Recommendations [2.8207195763355704]
本稿では,強化学習を伴うクラスタリングのアンサンブルを作成することで,トップkレコメンデーションを生成する手法を提案する。
我々は,DB Scanクラスタリングを導入し,膨大なアイテム空間に対処した。
部分的な更新とバッチ更新によって、モデルはユーザパターンを継続的に学習する。
論文 参考訳(メタデータ) (2020-11-29T20:24:39Z) - Continual Learning for Natural Language Generation in Task-oriented
Dialog Systems [72.92029584113676]
自然言語生成(NLG)はタスク指向対話システムにおいて重要な要素である。
我々は,NLGの知識を新たなドメインや機能に段階的に拡張する"継続的学習"環境で研究する。
この目標に対する大きな課題は、破滅的な忘れことであり、継続的に訓練されたモデルは、以前に学んだ知識を忘れがちである。
論文 参考訳(メタデータ) (2020-10-02T10:32:29Z) - Stylistic Dialogue Generation via Information-Guided Reinforcement
Learning Strategy [65.98002918470544]
情報指導強化学習(IG-RL)と呼ばれる新しい学習戦略を導入する。
IG-RLでは、コンテンツ品質の維持を制約しながら、スタイル表現を探索するトレーニングモデルが推奨されている。
これは,品質保存探索のための統計的スタイル情報ガイダンスを用いた強化学習戦略を採用することで達成される。
論文 参考訳(メタデータ) (2020-04-05T13:58:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。