論文の概要: The Pitfalls of Defining Hallucination
- arxiv url: http://arxiv.org/abs/2401.07897v1
- Date: Mon, 15 Jan 2024 18:53:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 16:12:56.134468
- Title: The Pitfalls of Defining Hallucination
- Title(参考訳): 幻覚の定義の落とし穴
- Authors: Kees van Deemter
- Abstract要約: データテキストNLGにおける幻覚と排便の現在の分類について検討する。
論理に基づくこれらのクラスフィケーションの合成を提案する。
私は、幻覚に関する現在のすべての考え方の残りの制限を強調して締めくくります。
- 参考スコア(独自算出の注目度): 2.3129337924262927
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Despite impressive advances in Natural Language Generation (NLG) and Large
Language Models (LLMs), researchers are still unclear about important aspects
of NLG evaluation. To substantiate this claim, I examine current
classifications of hallucination and omission in Data-text NLG, and I propose a
logic-based synthesis of these classfications. I conclude by highlighting some
remaining limitations of all current thinking about hallucination and by
discussing implications for LLMs.
- Abstract(参考訳): 自然言語生成(NLG)とLarge Language Models(LLM)の顕著な進歩にもかかわらず、NLG評価の重要な側面について研究者はまだ不明である。
この主張を裏付けるために, データテキストnlgにおける幻覚と欠落の分類について検討し, それらの分類の論理に基づく合成を提案する。
私は、幻覚に関する現在のすべての考え方の残りの制限を強調し、LLMへの影響について議論することで締めくくります。
関連論文リスト
- LLMs Will Always Hallucinate, and We Need to Live With This [1.3810901729134184]
この研究は、言語モデルにおける幻覚は時折エラーであるだけでなく、これらのシステムの必然的な特徴であると主張している。
したがって、アーキテクチャの改善、データセットの強化、ファクトチェックメカニズムを通じてそれらを取り除くことは不可能である。
論文 参考訳(メタデータ) (2024-09-09T16:01:58Z) - Hallucination Detection: Robustly Discerning Reliable Answers in Large Language Models [70.19081534515371]
大規模言語モデル(LLM)は様々な自然言語処理タスクで広く採用されている。
それらは、入力源から逸脱する不信または矛盾したコンテンツを生成し、深刻な結果をもたらす。
本稿では,LLMの生成した回答の幻覚を効果的に検出するために,RelDという頑健な識別器を提案する。
論文 参考訳(メタデータ) (2024-07-04T18:47:42Z) - Investigating and Addressing Hallucinations of LLMs in Tasks Involving Negation [44.486880633185756]
大規模言語モデル(LLM)は、様々な自然言語タスクで顕著なパフォーマンスを実現している。
LLMは出力の「ハロシン化」に関連する臨界限界に悩まされていることが示されている。
否定を伴う4つの課題について検討する:「偽の前提完了」「制約された事実生成」「複数選択質問応答」「製品生成」
我々は,LLaMA-2-chat,Vicuna,Orca-2といったオープンソースのLLMが,否定に関わるこれらの課題に大きく影響していることを示す。
論文 参考訳(メタデータ) (2024-06-08T15:20:56Z) - Exploring and Evaluating Hallucinations in LLM-Powered Code Generation [14.438161741833687]
LLM(Large Language Models)は、ユーザの意図から逸脱した出力を生成し、内部的不整合を示すか、事実的知識と不整合を示す。
既存の研究は主に、自然言語生成の分野における幻覚の投資に重点を置いている。
我々は,LLM生成コードのテーマ解析を行い,その内に存在する幻覚を要約し,分類する。
幻覚認識におけるLLMの性能評価のためのベンチマークであるHaluCodeを提案する。
論文 参考訳(メタデータ) (2024-04-01T07:31:45Z) - Fine-grained Hallucination Detection and Editing for Language Models [109.56911670376932]
大規模言語モデル(LM)は、しばしば幻覚と呼ばれる事実的誤りを引き起こす傾向にある。
我々は,幻覚の包括的分類を導入し,幻覚が多様な形態で現れることを議論する。
本稿では, 幻覚自動検出のための新しいタスクを提案し, 新たな評価ベンチマークであるFavaBenchを構築した。
論文 参考訳(メタデータ) (2024-01-12T19:02:48Z) - Alleviating Hallucinations of Large Language Models through Induced
Hallucinations [67.35512483340837]
大規模言語モデル(LLM)は、不正確な情報や製造された情報を含む応答を生成するために観察されている。
幻覚を緩和するための単純なtextitInduce-then-Contrast Decoding (ICD) 戦略を提案する。
論文 参考訳(メタデータ) (2023-12-25T12:32:49Z) - A Survey on Hallucination in Large Language Models: Principles, Taxonomy, Challenges, and Open Questions [40.79317187623401]
大規模言語モデル(LLM)の出現は、自然言語処理(NLP)において大きなブレークスルーとなった。
LLMは幻覚を起こす傾向があり、可視だが非現実的な内容を生成する。
この現象は、実世界の情報検索システムにおけるLCMの信頼性に対する重大な懸念を引き起こす。
論文 参考訳(メタデータ) (2023-11-09T09:25:37Z) - Siren's Song in the AI Ocean: A Survey on Hallucination in Large
Language Models [116.01843550398183]
大規模言語モデル(LLM)は、様々な下流タスクで顕著な機能を示している。
LLMは時折、ユーザ入力から分岐するコンテンツを生成し、以前生成されたコンテキストと矛盾する。
論文 参考訳(メタデータ) (2023-09-03T16:56:48Z) - Evaluation and Analysis of Hallucination in Large Vision-Language Models [49.19829480199372]
LVLM(Large Vision-Language Models)は近年大きな成功を収めている。
LVLMは今でも幻覚に悩まされている。
幻覚とは、視覚入力に存在しないLVLMの応答の情報を指す。
論文 参考訳(メタデータ) (2023-08-29T08:51:24Z) - Survey of Hallucination in Natural Language Generation [69.9926849848132]
近年,シーケンス間深層学習技術の発展により,自然言語生成(NLG)は指数関数的に向上している。
深層学習に基づく生成は意図しないテキストを幻覚させる傾向があるため、システム性能は低下する。
この調査は、NLGにおける幻覚テキストの課題に取り組む研究者の協力活動を促進するのに役立つ。
論文 参考訳(メタデータ) (2022-02-08T03:55:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。