論文の概要: A Text Reassembling Approach to Natural Language Generation
- arxiv url: http://arxiv.org/abs/2005.07988v3
- Date: Fri, 25 Dec 2020 15:31:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-02 13:24:55.488521
- Title: A Text Reassembling Approach to Natural Language Generation
- Title(参考訳): 自然言語生成のためのテキスト再構成手法
- Authors: Xiao Li, Kees van Deemter, and Chenghua Lin
- Abstract要約: 自然言語生成(NLG)のための新しい手法を提案する。
NLG(TRG)に対するテキスト再構成アプローチは、純粋に統計的アプローチの理想に非常に近づき、同時に非常に透明である。
TRG のアプローチを評価し,文書構造化や集約といった他の NLG タスクに対して TRG をどのように拡張するかについて議論する。
- 参考スコア(独自算出の注目度): 12.423674190462956
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent years have seen a number of proposals for performing Natural Language
Generation (NLG) based in large part on statistical techniques. Despite having
many attractive features, we argue that these existing approaches nonetheless
have some important drawbacks, sometimes because the approach in question is
not fully statistical (i.e., relies on a certain amount of handcrafting),
sometimes because the approach in question lacks transparency. Focussing on
some of the key NLG tasks (namely Content Selection, Lexical Choice, and
Linguistic Realisation), we propose a novel approach, called the Text
Reassembling approach to NLG (TRG), which approaches the ideal of a purely
statistical approach very closely, and which is at the same time highly
transparent. We evaluate the TRG approach and discuss how TRG may be extended
to deal with other NLG tasks, such as Document Structuring, and Aggregation. We
discuss the strengths and limitations of TRG, concluding that the method may
hold particular promise for domain experts who want to build an NLG system
despite having little expertise in linguistics and NLG.
- Abstract(参考訳): 近年,統計技術に基づく自然言語生成(NLG)の実施について,多くの提案がなされている。
多くの魅力的な特徴があるにもかかわらず、これらの既存のアプローチにはいくつかの重要な欠点がある、と我々は主張する。なぜなら、問題のアプローチが完全に統計的ではない(すなわち、ある量の手作りに依存している)ため、時には、問題のアプローチには透明性がないからである。
NLGの重要なタスク(すなわち、コンテンツ選択、語彙選択、言語実現)に焦点をあてて、我々は、純粋に統計的アプローチの理想に非常に近づき、同時に非常に透明な、NLG(TRG)に対するテキスト再構成アプローチ(Text Reassembling approach)という新しいアプローチを提案する。
TRG のアプローチを評価し,文書構造化や集約といった他の NLG タスクに対して TRG をどのように拡張するかについて議論する。
我々はTRGの長所と短所について論じ、言語学やNLGの専門知識が乏しいにもかかわらず、NLGシステムを構築したいドメインの専門家には、この手法が特に有望であると結論付けた。
関連論文リスト
- Leveraging Large Language Models for NLG Evaluation: Advances and Challenges [57.88520765782177]
大規模言語モデル(LLM)は、コヒーレンス、クリエイティビティ、コンテキスト関連など、生成されたコンテンツ品質を評価するための新たな道を開いた。
既存のLCMに基づく評価指標を整理し、これらの手法を理解し比較するための構造化された枠組みを提供する。
本稿では, 偏見, 堅牢性, ドメイン固有性, 統一評価などの未解決課題を議論することによって, 研究者に洞察を提供し, より公平で高度なNLG評価手法を提唱することを目的とする。
論文 参考訳(メタデータ) (2024-01-13T15:59:09Z) - Semantic Parsing by Large Language Models for Intricate Updating
Strategies of Zero-Shot Dialogue State Tracking [25.286077416235784]
Zero-shot Dialogue State Tracking (DST)は、タスク指向対話の取得と注釈付けの課題に対処する。
我々は、ゼロショットDSTに複雑な更新戦略を導入するために、新しいインコンテキスト学習(ICL)手法であるParsingDSTを提案する。
提案手法は,強力なLarge Language Models(LLM)を活用してDSTタスクを再構築し,元の対話文を意味解析に翻訳する。
論文 参考訳(メタデータ) (2023-10-16T15:38:02Z) - Uncertainty in Natural Language Generation: From Theory to Applications [42.55924708592451]
我々は,不確実性に対する原則的対応が,これらの目標に適合するシステムや評価プロトコルの作成に有効であると主張している。
まず,不確実性を表現するために必要な基本理論,枠組み,語彙について述べる。
そこで,本研究では,一般的なアレタリック/エピステミック二分法よりも情報的かつ忠実な2次元分類法を提案する。
論文 参考訳(メタデータ) (2023-07-28T17:51:21Z) - Iterative Zero-Shot LLM Prompting for Knowledge Graph Construction [104.29108668347727]
本稿では,最新の生成型大規模言語モデルの可能性を活用する,革新的な知識グラフ生成手法を提案する。
このアプローチは、新しい反復的なゼロショットと外部知識に依存しない戦略を含むパイプラインで伝達される。
我々は、我々の提案がスケーラブルで多目的な知識グラフ構築に適したソリューションであり、異なる新しい文脈に適用できると主張している。
論文 参考訳(メタデータ) (2023-07-03T16:01:45Z) - Faithfulness in Natural Language Generation: A Systematic Survey of
Analysis, Evaluation and Optimization Methods [48.47413103662829]
自然言語生成(NLG)は,事前学習型言語モデルなどの深層学習技術の発展により,近年大きく進歩している。
しかし、生成したテキストが通常不信または非実情報を含むという忠実性問題は、最大の課題となっている。
論文 参考訳(メタデータ) (2022-03-10T08:28:32Z) - Continual Learning for Natural Language Generation in Task-oriented
Dialog Systems [72.92029584113676]
自然言語生成(NLG)はタスク指向対話システムにおいて重要な要素である。
我々は,NLGの知識を新たなドメインや機能に段階的に拡張する"継続的学習"環境で研究する。
この目標に対する大きな課題は、破滅的な忘れことであり、継続的に訓練されたモデルは、以前に学んだ知識を忘れがちである。
論文 参考訳(メタデータ) (2020-10-02T10:32:29Z) - Logical Natural Language Generation from Open-Domain Tables [107.04385677577862]
本稿では,その事実に関連付けられた自然言語文をモデルで生成するタスクを提案する。
提案した論理的 NLG 問題の研究を容易にするために,幅広い論理的・記号的推論を特徴とする既存の TabFact データセットcitechen 2019tabfact を用いる。
新しいタスクは、シーケンス順序と論理順序のミスマッチのため、既存のモノトニック生成フレームワークに課題をもたらす。
論文 参考訳(メタデータ) (2020-04-22T06:03:10Z) - Few-shot Natural Language Generation for Task-Oriented Dialog [113.07438787659859]
FewShotWozは,タスク指向対話システムにおける数ショットの学習設定をシミュレートする最初の NLG ベンチマークである。
我々は, SC-GPTモデルを開発し, その制御可能な生成能力を得るために, 注釈付きNLGコーパスの大規模なセットで事前学習を行った。
FewShotWozとMulti-Domain-WOZデータセットの実験は、提案したSC-GPTが既存の手法を大幅に上回っていることを示している。
論文 参考訳(メタデータ) (2020-02-27T18:48:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。