論文の概要: Can Knowledge Graphs Reduce Hallucinations in LLMs? : A Survey
- arxiv url: http://arxiv.org/abs/2311.07914v1
- Date: Tue, 14 Nov 2023 05:21:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-15 15:30:59.067692
- Title: Can Knowledge Graphs Reduce Hallucinations in LLMs? : A Survey
- Title(参考訳): 知識グラフはLLMの幻覚を抑制するか?
アンケート調査
- Authors: Garima Agrawal, Tharindu Kumarage, Zeyad Alghami, Huan Liu
- Abstract要約: 我々は,LLMにおける知識グラフに基づく知識向上手法のレビューを行い,幻覚の緩和効果に着目した。
我々は,これらの手法を3つの集団に分類し,方法論的比較と経験的評価の両方を提供する。
最後に,これらの技術にかかわる課題について考察し,今後の研究の道筋について概説する。
- 参考スコア(独自算出の注目度): 12.532247948562489
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The contemporary LLMs are prone to producing hallucinations, stemming mainly
from the knowledge gaps within the models. To address this critical limitation,
researchers employ diverse strategies to augment the LLMs by incorporating
external knowledge, aiming to reduce hallucinations and enhance reasoning
accuracy. Among these strategies, leveraging knowledge graphs as a source of
external information has demonstrated promising results. In this survey, we
conduct a comprehensive review of these knowledge-graph-based knowledge
augmentation techniques in LLMs, focusing on their efficacy in mitigating
hallucinations. We systematically categorize these methods into three
overarching groups, offering both methodological comparisons and empirical
evaluations of their performance. Lastly, the paper explores the challenges
associated with these techniques and outlines potential avenues for future
research in this emerging field.
- Abstract(参考訳): 現代のLSMは幻覚を引き起こす傾向があり、主にモデル内の知識ギャップから生じる。
この限界に対処するため、研究者は外部の知識を取り入れ、幻覚を減少させ推論精度を向上させることで、llmを強化するために多様な戦略を採用している。
これらの戦略のうち、外部情報ソースとしての知識グラフの利用は、有望な結果を示している。
本研究では,これらの知識グラフに基づく知識強化手法をllmsで包括的に検討し,幻覚の緩和効果に着目した。
我々は,これらの手法を3つの集団に分類し,方法論的比較と経験的評価の両方を提供する。
最後に,これらの技術にかかわる課題について考察し,今後の研究の道筋について概説する。
関連論文リスト
- Retrieve Only When It Needs: Adaptive Retrieval Augmentation for
Hallucination Mitigation in Large Language Models [73.93616728895401]
幻覚は、大規模言語モデル(LLM)の実践的実装において重要な課題となる。
本稿では,幻覚に対処するための選択的検索拡張プロセスにより,Lowenを改良する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-02-16T11:55:40Z) - Knowledge Verification to Nip Hallucination in the Bud [73.95113631534635]
本研究では、アライメントデータに存在する外部知識と基礎LPM内に埋め込まれた固有の知識との矛盾を検証し、最小化することにより、幻覚を緩和する可能性を示す。
本稿では,知識一貫性アライメント(KCA, Knowledge Consistent Alignment)と呼ばれる新しい手法を提案する。
6つのベンチマークで幻覚を減らし, バックボーンとスケールの異なる基礎的LCMを利用することで, KCAの優れた効果を実証した。
論文 参考訳(メタデータ) (2024-01-19T15:39:49Z) - A Comprehensive Survey of Hallucination Mitigation Techniques in Large
Language Models [7.705767540805267]
大きな言語モデル(LLM)は、人間のようなテキストを書く能力の進歩を続けている。
重要な課題は、事実に見えるが根拠のないコンテンツを生み出すことを幻覚させる傾向にある。
本稿では,LLMにおける幻覚を緩和するために開発された32以上の技術について調査する。
論文 参考訳(メタデータ) (2024-01-02T17:56:30Z) - Enhancing Uncertainty-Based Hallucination Detection with Stronger Focus [99.33091772494751]
大規模言語モデル(LLM)は、様々な分野にわたる印象的なパフォーマンスで大きな人気を集めている。
LLMは、ユーザの期待を満たさない非現実的あるいは非感覚的なアウトプットを幻覚させる傾向がある。
LLMにおける幻覚を検出するための新しい基準のない不確実性に基づく手法を提案する。
論文 参考訳(メタデータ) (2023-11-22T08:39:17Z) - A Survey on Hallucination in Large Language Models: Principles,
Taxonomy, Challenges, and Open Questions [42.007305423982515]
大型言語モデル(LLM)は幻覚を生じさせ、現実の事実やユーザ入力と矛盾する内容をもたらす。
本調査は, LLM幻覚の分野での最近の進歩について, 徹底的, 徹底的に概観することを目的としている。
論文 参考訳(メタデータ) (2023-11-09T09:25:37Z) - Exploring the Cognitive Knowledge Structure of Large Language Models: An
Educational Diagnostic Assessment Approach [50.125704610228254]
大規模言語モデル(LLM)は、様々なタスクにまたがる例外的なパフォーマンスを示すだけでなく、知性の火花も示している。
近年の研究では、人間の試験における能力の評価に焦点が当てられ、異なる領域における彼らの印象的な能力を明らかにしている。
ブルーム分類に基づく人体検査データセットであるMoocRadarを用いて評価を行った。
論文 参考訳(メタデータ) (2023-10-12T09:55:45Z) - Siren's Song in the AI Ocean: A Survey on Hallucination in Large
Language Models [116.01843550398183]
大規模言語モデル(LLM)は、様々な下流タスクで顕著な機能を示している。
LLMは時折、ユーザ入力から分岐するコンテンツを生成し、以前生成されたコンテキストと矛盾する。
論文 参考訳(メタデータ) (2023-09-03T16:56:48Z) - MindMap: Knowledge Graph Prompting Sparks Graph of Thoughts in Large
Language Models [34.43660759521586]
大規模言語モデル(LLM)は、自然言語理解および生成タスクにおいて顕著な性能を達成した。
しかし、新しい知識を取り入れることの難しさや幻覚を生じさせ、推論過程を説明するといった制限に悩まされることが多い。
本稿では,知識グラフ(KG)を利用してLLMの推論と透過性を向上する新しいプロンプトパイプラインを提案する。
論文 参考訳(メタデータ) (2023-08-17T16:59:50Z) - Information Extraction in Low-Resource Scenarios: Survey and Perspective [60.67550275379953]
情報抽出は構造化されていないテキストから構造化された情報を導き出そうとする。
本稿では,emphLLMおよびemphLLMに基づく低リソースIEに対するニューラルアプローチについて概説する。
論文 参考訳(メタデータ) (2022-02-16T13:44:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。