論文の概要: Survey of Hallucination in Natural Language Generation
- arxiv url: http://arxiv.org/abs/2202.03629v1
- Date: Tue, 8 Feb 2022 03:55:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-10 02:46:52.216967
- Title: Survey of Hallucination in Natural Language Generation
- Title(参考訳): 自然言語生成における幻覚の実態調査
- Authors: Ziwei Ji, Nayeon Lee, Rita Frieske, Tiezheng Yu, Dan Su, Yan Xu,
Etsuko Ishii, Yejin Bang, Andrea Madotto, Pascale Fung
- Abstract要約: 近年,ディープラーニング技術の発展により,自然言語生成(NLG)が指数関数的に向上している。
また,このような生成には幻覚テキストが含まれており,テキスト生成の性能がユーザの期待に届かないようにしていることも検討した。
本調査は, NLGの幻覚問題における研究の進展と課題について概観する。
- 参考スコア(独自算出の注目度): 60.832000545976015
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Natural Language Generation (NLG) has improved exponentially in recent years
thanks to the development of deep learning technologies such as
Transformer-based language models. This advancement has led to more fluent and
coherent natural language generation, naturally leading to development in
downstream tasks such as abstractive summarization, dialogue generation and
data-to-text generation. However, it is also investigated that such generation
includes hallucinated texts, which makes the performances of text generation
fail to meet users' expectations in many real-world scenarios. In order to
address this issue, studies in evaluation and mitigation methods of
hallucinations have been presented in various tasks, but have not been reviewed
in a combined manner. In this survey, we provide a broad overview of the
research progress and challenges in the hallucination problem of NLG. The
survey is organized into two big divisions: (i) a general overview of metrics,
mitigation methods, and future directions; (ii) task-specific research progress
for hallucinations in a large set of downstream tasks: abstractive
summarization, dialogue generation, generative question answering, data-to-text
generation, and machine translation. This survey could facilitate collaborative
efforts among researchers in these tasks.
- Abstract(参考訳): 自然言語生成(NLG)は、トランスフォーマーベースの言語モデルのようなディープラーニング技術の開発により、近年指数関数的に改善されている。
この進歩は、より流動的で一貫性のある自然言語生成をもたらし、自然に抽象的な要約、対話生成、データ-テキスト生成といった下流タスクの開発に繋がる。
しかし、このような生成には幻覚テキストが含まれており、多くの現実シナリオにおいて、テキスト生成の性能がユーザの期待に届かないようにしている。
この問題に対処するため,幻覚の評価・緩和方法の研究は様々な課題で提示されてきたが,総合的な検討は行われていない。
本調査では,NLGの幻覚問題における研究の進展と課題について概説する。
調査は2つの大きな部門に分けられる。
(i) メトリクス、緩和方法、今後の方向性の概観
(ii)抽象的要約,対話生成,生成的質問応答,テキスト間データ生成,機械翻訳など,ダウンストリームタスクの幻覚に対するタスク固有研究の進展
この調査は、これらのタスクにおける研究者の協力を促進する可能性がある。
関連論文リスト
- Natural Language Generation for Visualizations: State of the Art, Challenges and Future Directions [7.064953237013352]
可視化のためのテキスト生成に焦点を当てた研究に焦点をあてる。
提案手法のNLG問題と設計空間を特徴付けるために、5つのWh-questionsを示す。
この5つのWh-questionsに基づく調査論文のソリューションを分類する。
論文 参考訳(メタデータ) (2024-09-29T15:53:18Z) - Negation Blindness in Large Language Models: Unveiling the NO Syndrome in Image Generation [63.064204206220936]
基礎的な大規模言語モデル(LLM)は、私たちが技術を理解する方法を変えました。
詩の執筆からコーディング、エッセイ生成、パズルの解決まで、様々な課題に長けていることが示されている。
画像生成機能の導入により、より包括的で汎用的なAIツールとなった。
現在特定されている欠陥には、幻覚、偏見、有害なコンテンツを生成するために制限されたコマンドをバイパスすることが含まれる。
論文 参考訳(メタデータ) (2024-08-27T14:40:16Z) - Analysis of Plan-based Retrieval for Grounded Text Generation [78.89478272104739]
幻覚は、言語モデルがそのパラメトリック知識の外で生成タスクが与えられるときに起こる。
この制限に対処するための一般的な戦略は、言語モデルに検索メカニズムを注入することである。
我々は,幻覚の頻度をさらに減少させるために,探索のガイドとして計画をどのように利用できるかを分析する。
論文 参考訳(メタデータ) (2024-08-20T02:19:35Z) - Can We Catch the Elephant? A Survey of the Evolvement of Hallucination Evaluation on Natural Language Generation [15.67906403625006]
幻覚評価システムは複雑で多様であり、明確な組織が欠如している。
本調査は,幻覚評価における現在の限界を特定し,今後の研究方向性を明らかにすることを目的としている。
論文 参考訳(メタデータ) (2024-04-18T09:52:18Z) - Cognitive Mirage: A Review of Hallucinations in Large Language Models [10.86850565303067]
各種テキスト生成タスクから幻覚の新しい分類法を提案する。
理論的洞察、検出方法、改善アプローチを提供する。
幻覚が注目される中、我々は関連研究の進捗状況の更新を続行する。
論文 参考訳(メタデータ) (2023-09-13T08:33:09Z) - Faithfulness in Natural Language Generation: A Systematic Survey of
Analysis, Evaluation and Optimization Methods [48.47413103662829]
自然言語生成(NLG)は,事前学習型言語モデルなどの深層学習技術の発展により,近年大きく進歩している。
しかし、生成したテキストが通常不信または非実情報を含むという忠実性問題は、最大の課題となっている。
論文 参考訳(メタデータ) (2022-03-10T08:28:32Z) - A Survey on Retrieval-Augmented Text Generation [53.04991859796971]
Retrieval-augmented text generationは顕著な利点があり、多くのNLPタスクで最先端のパフォーマンスを実現している。
まず、検索拡張生成の一般的なパラダイムを強調し、異なるタスクに応じて注目すべきアプローチをレビューする。
論文 参考訳(メタデータ) (2022-02-02T16:18:41Z) - Positioning yourself in the maze of Neural Text Generation: A
Task-Agnostic Survey [54.34370423151014]
本稿では, ストーリーテリング, 要約, 翻訳など, 世代ごとのタスクインパクトをリレーする手法の構成要素について検討する。
本稿では,学習パラダイム,事前学習,モデリングアプローチ,復号化,各分野における重要な課題について,命令的手法の抽象化を提案する。
論文 参考訳(メタデータ) (2020-10-14T17:54:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。