論文の概要: Survey of Hallucination in Natural Language Generation
- arxiv url: http://arxiv.org/abs/2202.03629v6
- Date: Mon, 19 Feb 2024 14:13:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 07:56:36.926821
- Title: Survey of Hallucination in Natural Language Generation
- Title(参考訳): 自然言語生成における幻覚の実態調査
- Authors: Ziwei Ji, Nayeon Lee, Rita Frieske, Tiezheng Yu, Dan Su, Yan Xu,
Etsuko Ishii, Yejin Bang, Delong Chen, Ho Shu Chan, Wenliang Dai, Andrea
Madotto, Pascale Fung
- Abstract要約: 近年,シーケンス間深層学習技術の発展により,自然言語生成(NLG)は指数関数的に向上している。
深層学習に基づく生成は意図しないテキストを幻覚させる傾向があるため、システム性能は低下する。
この調査は、NLGにおける幻覚テキストの課題に取り組む研究者の協力活動を促進するのに役立つ。
- 参考スコア(独自算出の注目度): 71.70363756667832
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Natural Language Generation (NLG) has improved exponentially in recent years
thanks to the development of sequence-to-sequence deep learning technologies
such as Transformer-based language models. This advancement has led to more
fluent and coherent NLG, leading to improved development in downstream tasks
such as abstractive summarization, dialogue generation and data-to-text
generation. However, it is also apparent that deep learning based generation is
prone to hallucinate unintended text, which degrades the system performance and
fails to meet user expectations in many real-world scenarios. To address this
issue, many studies have been presented in measuring and mitigating
hallucinated texts, but these have never been reviewed in a comprehensive
manner before. In this survey, we thus provide a broad overview of the research
progress and challenges in the hallucination problem in NLG. The survey is
organized into two parts: (1) a general overview of metrics, mitigation
methods, and future directions; (2) an overview of task-specific research
progress on hallucinations in the following downstream tasks, namely
abstractive summarization, dialogue generation, generative question answering,
data-to-text generation, machine translation, and visual-language generation;
and (3) hallucinations in large language models (LLMs). This survey serves to
facilitate collaborative efforts among researchers in tackling the challenge of
hallucinated texts in NLG.
- Abstract(参考訳): 自然言語生成(NLG)は、Transformerベースの言語モデルのようなシーケンス間深層学習技術の開発により、近年指数関数的に改善されている。
この進歩はより流動的で一貫性のあるnlgを生み出し、抽象的な要約、対話生成、データからテキストへの生成といった下流タスクの開発に繋がった。
しかし、深層学習に基づく生成は意図しないテキストを暗示しがちであり、システム性能が低下し、現実世界のシナリオでユーザの期待を満たせないことも明らかである。
この問題に対処するため、幻覚テキストの測定・緩和について多くの研究がなされてきたが、これらを総合的にレビューすることはなかった。
そこで本研究では,nlgにおける幻覚問題における研究の進展と課題について概観する。
調査は,(1)メトリクス,緩和方法,今後の方向性の概観,(2)抽象的要約,対話生成,生成的質問応答,データ・テキスト生成,機械翻訳,視覚言語生成,(3)大規模言語モデル(LLMs)における幻覚に関するタスク固有の研究成果の概観,の2つに分けられる。
本研究は,nlgにおける幻覚テキストの課題に取り組む研究者の協力の促進に寄与する。
関連論文リスト
- Natural Language Generation for Visualizations: State of the Art, Challenges and Future Directions [7.064953237013352]
可視化のためのテキスト生成に焦点を当てた研究に焦点をあてる。
提案手法のNLG問題と設計空間を特徴付けるために、5つのWh-questionsを示す。
この5つのWh-questionsに基づく調査論文のソリューションを分類する。
論文 参考訳(メタデータ) (2024-09-29T15:53:18Z) - Negation Blindness in Large Language Models: Unveiling the NO Syndrome in Image Generation [63.064204206220936]
基礎的な大規模言語モデル(LLM)は、私たちが技術を理解する方法を変えました。
詩の執筆からコーディング、エッセイ生成、パズルの解決まで、様々な課題に長けていることが示されている。
画像生成機能の導入により、より包括的で汎用的なAIツールとなった。
現在特定されている欠陥には、幻覚、偏見、有害なコンテンツを生成するために制限されたコマンドをバイパスすることが含まれる。
論文 参考訳(メタデータ) (2024-08-27T14:40:16Z) - Analysis of Plan-based Retrieval for Grounded Text Generation [78.89478272104739]
幻覚は、言語モデルがそのパラメトリック知識の外で生成タスクが与えられるときに起こる。
この制限に対処するための一般的な戦略は、言語モデルに検索メカニズムを注入することである。
我々は,幻覚の頻度をさらに減少させるために,探索のガイドとして計画をどのように利用できるかを分析する。
論文 参考訳(メタデータ) (2024-08-20T02:19:35Z) - Can We Catch the Elephant? A Survey of the Evolvement of Hallucination Evaluation on Natural Language Generation [15.67906403625006]
幻覚評価システムは複雑で多様であり、明確な組織が欠如している。
本調査は,幻覚評価における現在の限界を特定し,今後の研究方向性を明らかにすることを目的としている。
論文 参考訳(メタデータ) (2024-04-18T09:52:18Z) - Cognitive Mirage: A Review of Hallucinations in Large Language Models [10.86850565303067]
各種テキスト生成タスクから幻覚の新しい分類法を提案する。
理論的洞察、検出方法、改善アプローチを提供する。
幻覚が注目される中、我々は関連研究の進捗状況の更新を続行する。
論文 参考訳(メタデータ) (2023-09-13T08:33:09Z) - Faithfulness in Natural Language Generation: A Systematic Survey of
Analysis, Evaluation and Optimization Methods [48.47413103662829]
自然言語生成(NLG)は,事前学習型言語モデルなどの深層学習技術の発展により,近年大きく進歩している。
しかし、生成したテキストが通常不信または非実情報を含むという忠実性問題は、最大の課題となっている。
論文 参考訳(メタデータ) (2022-03-10T08:28:32Z) - A Survey on Retrieval-Augmented Text Generation [53.04991859796971]
Retrieval-augmented text generationは顕著な利点があり、多くのNLPタスクで最先端のパフォーマンスを実現している。
まず、検索拡張生成の一般的なパラダイムを強調し、異なるタスクに応じて注目すべきアプローチをレビューする。
論文 参考訳(メタデータ) (2022-02-02T16:18:41Z) - Positioning yourself in the maze of Neural Text Generation: A
Task-Agnostic Survey [54.34370423151014]
本稿では, ストーリーテリング, 要約, 翻訳など, 世代ごとのタスクインパクトをリレーする手法の構成要素について検討する。
本稿では,学習パラダイム,事前学習,モデリングアプローチ,復号化,各分野における重要な課題について,命令的手法の抽象化を提案する。
論文 参考訳(メタデータ) (2020-10-14T17:54:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。