論文の概要: Survey of Hallucination in Natural Language Generation
- arxiv url: http://arxiv.org/abs/2202.03629v1
- Date: Tue, 8 Feb 2022 03:55:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-10 02:46:52.216967
- Title: Survey of Hallucination in Natural Language Generation
- Title(参考訳): 自然言語生成における幻覚の実態調査
- Authors: Ziwei Ji, Nayeon Lee, Rita Frieske, Tiezheng Yu, Dan Su, Yan Xu,
Etsuko Ishii, Yejin Bang, Andrea Madotto, Pascale Fung
- Abstract要約: 近年,ディープラーニング技術の発展により,自然言語生成(NLG)が指数関数的に向上している。
また,このような生成には幻覚テキストが含まれており,テキスト生成の性能がユーザの期待に届かないようにしていることも検討した。
本調査は, NLGの幻覚問題における研究の進展と課題について概観する。
- 参考スコア(独自算出の注目度): 60.832000545976015
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Natural Language Generation (NLG) has improved exponentially in recent years
thanks to the development of deep learning technologies such as
Transformer-based language models. This advancement has led to more fluent and
coherent natural language generation, naturally leading to development in
downstream tasks such as abstractive summarization, dialogue generation and
data-to-text generation. However, it is also investigated that such generation
includes hallucinated texts, which makes the performances of text generation
fail to meet users' expectations in many real-world scenarios. In order to
address this issue, studies in evaluation and mitigation methods of
hallucinations have been presented in various tasks, but have not been reviewed
in a combined manner. In this survey, we provide a broad overview of the
research progress and challenges in the hallucination problem of NLG. The
survey is organized into two big divisions: (i) a general overview of metrics,
mitigation methods, and future directions; (ii) task-specific research progress
for hallucinations in a large set of downstream tasks: abstractive
summarization, dialogue generation, generative question answering, data-to-text
generation, and machine translation. This survey could facilitate collaborative
efforts among researchers in these tasks.
- Abstract(参考訳): 自然言語生成(NLG)は、トランスフォーマーベースの言語モデルのようなディープラーニング技術の開発により、近年指数関数的に改善されている。
この進歩は、より流動的で一貫性のある自然言語生成をもたらし、自然に抽象的な要約、対話生成、データ-テキスト生成といった下流タスクの開発に繋がる。
しかし、このような生成には幻覚テキストが含まれており、多くの現実シナリオにおいて、テキスト生成の性能がユーザの期待に届かないようにしている。
この問題に対処するため,幻覚の評価・緩和方法の研究は様々な課題で提示されてきたが,総合的な検討は行われていない。
本調査では,NLGの幻覚問題における研究の進展と課題について概説する。
調査は2つの大きな部門に分けられる。
(i) メトリクス、緩和方法、今後の方向性の概観
(ii)抽象的要約,対話生成,生成的質問応答,テキスト間データ生成,機械翻訳など,ダウンストリームタスクの幻覚に対するタスク固有研究の進展
この調査は、これらのタスクにおける研究者の協力を促進する可能性がある。
関連論文リスト
- MALTO at SemEval-2024 Task 6: Leveraging Synthetic Data for LLM
Hallucination Detection [3.049887057143419]
自然言語生成(NLG)では、現代のLarge Language Models(LLM)がいくつかの課題に直面している。
これはしばしば「幻覚」を示すニューラルネットワークにつながる
SHROOMチャレンジは、生成されたテキストでこれらの幻覚を自動的に識別することに焦点を当てている。
論文 参考訳(メタデータ) (2024-03-01T20:31:10Z) - Ever: Mitigating Hallucination in Large Language Models through
Real-Time Verification and Rectification [18.59695929601458]
リアルタイム検証(Real-time Verification and Rectification)と呼ばれる新しいアプローチを導入する。
エバーは、リアルタイムでステップワイズな生成と幻覚の修正戦略を採用しています。
さまざまなタスクにまたがって、信頼できる、事実的に正確なテキストを生成することにおいて、大きな改善が示されています。
論文 参考訳(メタデータ) (2023-11-15T17:04:56Z) - A Survey on Hallucination in Large Language Models: Principles,
Taxonomy, Challenges, and Open Questions [42.007305423982515]
大型言語モデル(LLM)は幻覚を生じさせ、現実の事実やユーザ入力と矛盾する内容をもたらす。
本調査は, LLM幻覚の分野での最近の進歩について, 徹底的, 徹底的に概観することを目的としている。
論文 参考訳(メタデータ) (2023-11-09T09:25:37Z) - Cognitive Mirage: A Review of Hallucinations in Large Language Models [10.86850565303067]
各種テキスト生成タスクから幻覚の新しい分類法を提案する。
理論的洞察、検出方法、改善アプローチを提供する。
幻覚が注目される中、我々は関連研究の進捗状況の更新を続行する。
論文 参考訳(メタデータ) (2023-09-13T08:33:09Z) - Visualize Before You Write: Imagination-Guided Open-Ended Text
Generation [68.96699389728964]
我々は、機械生成画像を用いて、オープンエンドテキスト生成における言語モデルをガイドするiNLGを提案する。
オープンエンドテキスト生成タスクにおけるiNLGの有効性について実験と解析を行った。
論文 参考訳(メタデータ) (2022-10-07T18:01:09Z) - Faithfulness in Natural Language Generation: A Systematic Survey of
Analysis, Evaluation and Optimization Methods [48.47413103662829]
自然言語生成(NLG)は,事前学習型言語モデルなどの深層学習技術の発展により,近年大きく進歩している。
しかし、生成したテキストが通常不信または非実情報を含むという忠実性問題は、最大の課題となっている。
論文 参考訳(メタデータ) (2022-03-10T08:28:32Z) - A Survey on Retrieval-Augmented Text Generation [53.04991859796971]
Retrieval-augmented text generationは顕著な利点があり、多くのNLPタスクで最先端のパフォーマンスを実現している。
まず、検索拡張生成の一般的なパラダイムを強調し、異なるタスクに応じて注目すべきアプローチをレビューする。
論文 参考訳(メタデータ) (2022-02-02T16:18:41Z) - Positioning yourself in the maze of Neural Text Generation: A
Task-Agnostic Survey [54.34370423151014]
本稿では, ストーリーテリング, 要約, 翻訳など, 世代ごとのタスクインパクトをリレーする手法の構成要素について検討する。
本稿では,学習パラダイム,事前学習,モデリングアプローチ,復号化,各分野における重要な課題について,命令的手法の抽象化を提案する。
論文 参考訳(メタデータ) (2020-10-14T17:54:42Z) - A Survey of Knowledge-Enhanced Text Generation [81.24633231919137]
テキスト生成の目標は、機械を人間の言語で表現できるようにすることである。
入力テキストを出力テキストにマッピングすることを学ぶことで、目的を達成するために、様々なニューラルエンコーダデコーダモデルが提案されている。
この問題に対処するために、研究者は入力テキスト以外の様々な種類の知識を生成モデルに組み込むことを検討してきた。
論文 参考訳(メタデータ) (2020-10-09T06:46:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。