論文の概要: A Survey of Hallucination in Large Foundation Models
- arxiv url: http://arxiv.org/abs/2309.05922v1
- Date: Tue, 12 Sep 2023 02:34:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-13 14:41:14.523372
- Title: A Survey of Hallucination in Large Foundation Models
- Title(参考訳): 大規模基礎モデルにおける幻覚調査
- Authors: Vipula Rawte, Amit Sheth, Amitava Das
- Abstract要約: ファンデーション・モデル(FM)における幻覚とは、現実から逸脱するコンテンツや、偽情報を含むコンテンツの生成を指す。
本稿は, LFM特有の幻覚現象の種類を分類し, 幻覚の程度を評価するための評価基準を確立する。
- 参考スコア(独自算出の注目度): 7.3406553263782035
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Hallucination in a foundation model (FM) refers to the generation of content
that strays from factual reality or includes fabricated information. This
survey paper provides an extensive overview of recent efforts that aim to
identify, elucidate, and tackle the problem of hallucination, with a particular
focus on ``Large'' Foundation Models (LFMs). The paper classifies various types
of hallucination phenomena that are specific to LFMs and establishes evaluation
criteria for assessing the extent of hallucination. It also examines existing
strategies for mitigating hallucination in LFMs and discusses potential
directions for future research in this area. Essentially, the paper offers a
comprehensive examination of the challenges and solutions related to
hallucination in LFMs.
- Abstract(参考訳): ファウンデーションモデル(fm)における幻覚とは、事実の現実から逸脱したり、情報を含むコンテンツの生成を指す。
本稿では,「大規模」基礎モデル(lfms)に着目し,幻覚の問題を特定し,解明し,取り組むことを目的とした最近の取り組みの概要について述べる。
本稿は, LFM特有の幻覚現象の種類を分類し, 幻覚の程度を評価するための評価基準を確立する。
また, LFMにおける幻覚の緩和戦略について検討し, 今後の研究の方向性について検討する。
本論文は, LFMにおける幻覚に関する課題と解決策を包括的に検討する。
関連論文リスト
- A Survey of Hallucination in Large Visual Language Models [48.794850395309076]
幻覚の存在は、様々な分野におけるLVLMの可能性と実用性を制限している。
LVLMの構造と幻覚の発生の主な原因を紹介する。
LVLMの幻覚評価ベンチマークについて述べる。
論文 参考訳(メタデータ) (2024-10-20T10:58:58Z) - Hallucination Detection: Robustly Discerning Reliable Answers in Large Language Models [70.19081534515371]
大規模言語モデル(LLM)は様々な自然言語処理タスクで広く採用されている。
それらは、入力源から逸脱する不信または矛盾したコンテンツを生成し、深刻な結果をもたらす。
本稿では,LLMの生成した回答の幻覚を効果的に検出するために,RelDという頑健な識別器を提案する。
論文 参考訳(メタデータ) (2024-07-04T18:47:42Z) - A Comprehensive Survey of Hallucination in Large Language, Image, Video and Audio Foundation Models [11.123264942473684]
ファンデーションモデル(FM)の拡散は、幻覚出力を生成する可能性という重要な課題を引き起こします。
本研究は, FMにおける幻覚の問題を同定し, 緩和することを目的とした最近の研究の概要を概観する。
論文 参考訳(メタデータ) (2024-05-15T10:16:25Z) - Unified Hallucination Detection for Multimodal Large Language Models [44.333451078750954]
マルチモーダル大言語モデル(MLLM)は幻覚の重要な問題に悩まされている。
本稿では,幻覚検出手法の進歩を評価するために,メタ評価ベンチマークであるMHaluBenchを提案する。
我々は,幻覚の発生を確実に検証するために,一連の補助ツールを活用する,新しい統合型マルチモーダル幻覚検出フレームワークUNIHDを公表した。
論文 参考訳(メタデータ) (2024-02-05T16:56:11Z) - A Survey on Large Language Model Hallucination via a Creativity
Perspective [11.31666059218344]
大型言語モデル(LLM)における幻覚は常に制限と見なされる。
クリエイティビティの源でもあるのでしょうか?
本調査は, この可能性を探究し, 創造性を育むことによって幻覚が LLM の応用に寄与する可能性を示唆している。
論文 参考訳(メタデータ) (2024-02-02T12:21:04Z) - A Survey on Hallucination in Large Vision-Language Models [18.540878498840435]
LVLM(Large Vision-Language Models)は、実践的な実装の可能性から、AIの世界において注目を集めている。
しかし,「幻覚」は,現実の視覚的内容とそれに対応するテキスト生成のミスアライメントが,LVLMを活用する上で大きな課題となる。
我々は,LVLM関連幻覚を解明し,今後の緩和を促進するために検討する。
論文 参考訳(メタデータ) (2024-02-01T00:33:21Z) - A Survey on Hallucination in Large Language Models: Principles, Taxonomy, Challenges, and Open Questions [40.79317187623401]
大規模言語モデル(LLM)の出現は、自然言語処理(NLP)において大きなブレークスルーとなった。
LLMは幻覚を起こす傾向があり、可視だが非現実的な内容を生成する。
この現象は、実世界の情報検索システムにおけるLCMの信頼性に対する重大な懸念を引き起こす。
論文 参考訳(メタデータ) (2023-11-09T09:25:37Z) - Towards Mitigating Hallucination in Large Language Models via
Self-Reflection [63.2543947174318]
大規模言語モデル(LLM)は、質問応答(QA)タスクを含む生成的および知識集約的なタスクを約束している。
本稿では,広範に採用されているLCMとデータセットを用いた医療再生QAシステムにおける幻覚現象を解析する。
論文 参考訳(メタデータ) (2023-10-10T03:05:44Z) - AutoHall: Automated Hallucination Dataset Generation for Large Language Models [56.92068213969036]
本稿では,AutoHallと呼ばれる既存のファクトチェックデータセットに基づいて,モデル固有の幻覚データセットを自動的に構築する手法を提案する。
また,自己コントラディションに基づくゼロリソース・ブラックボックス幻覚検出手法を提案する。
論文 参考訳(メタデータ) (2023-09-30T05:20:02Z) - Siren's Song in the AI Ocean: A Survey on Hallucination in Large
Language Models [116.01843550398183]
大規模言語モデル(LLM)は、様々な下流タスクで顕著な機能を示している。
LLMは時折、ユーザ入力から分岐するコンテンツを生成し、以前生成されたコンテキストと矛盾する。
論文 参考訳(メタデータ) (2023-09-03T16:56:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。