論文の概要: Augmenting LLMs with Knowledge: A survey on hallucination prevention
- arxiv url: http://arxiv.org/abs/2309.16459v1
- Date: Thu, 28 Sep 2023 14:09:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-29 14:05:32.291598
- Title: Augmenting LLMs with Knowledge: A survey on hallucination prevention
- Title(参考訳): 知識によるLLMの増強:幻覚予防に関する調査
- Authors: Konstantinos Andriopoulos, Johan Pouwelse
- Abstract要約: この調査は言語モデル(LM)の領域を掘り下げ、外部の知識ソースをタップする機能を備えている。
欠落したトークンを予測するという標準的な目的に固執する一方で、これらの拡張LMは多種多様で、おそらくパラメトリックでない外部モジュールを活用する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large pre-trained language models have demonstrated their proficiency in
storing factual knowledge within their parameters and achieving remarkable
results when fine-tuned for downstream natural language processing tasks.
Nonetheless, their capacity to access and manipulate knowledge with precision
remains constrained, resulting in performance disparities on
knowledge-intensive tasks when compared to task-specific architectures.
Additionally, the challenges of providing provenance for model decisions and
maintaining up-to-date world knowledge persist as open research frontiers. To
address these limitations, the integration of pre-trained models with
differentiable access mechanisms to explicit non-parametric memory emerges as a
promising solution. This survey delves into the realm of language models (LMs)
augmented with the ability to tap into external knowledge sources, including
external knowledge bases and search engines. While adhering to the standard
objective of predicting missing tokens, these augmented LMs leverage diverse,
possibly non-parametric external modules to augment their contextual processing
capabilities, departing from the conventional language modeling paradigm.
Through an exploration of current advancements in augmenting large language
models with knowledge, this work concludes that this emerging research
direction holds the potential to address prevalent issues in traditional LMs,
such as hallucinations, un-grounded responses, and scalability challenges.
- Abstract(参考訳): 大規模事前学習された言語モデルでは、実際の知識をパラメータに格納し、下流自然言語処理タスクを微調整した場合に顕著な結果を得る能力が実証されている。
それでも、正確さで知識にアクセスして操作する能力は制約を受けず、タスク固有のアーキテクチャと比較して、知識集約的なタスクのパフォーマンスの差が生じます。
加えて、オープン研究のフロンティアとして、モデル決定の証明を提供し、最新世界の知識を維持するという課題が続いている。
これらの制限に対処するため、明示的な非パラメトリックメモリに対する異なるアクセス機構を持つ事前学習モデルの統合が、有望なソリューションとして現れている。
この調査は、外部知識ベースや検索エンジンを含む外部知識ソースを活用できるように拡張された言語モデル(LM)の領域を掘り下げるものである。
これらの拡張LMは、欠落したトークンを予測するという標準的な目的に固執する一方で、多種多様でおそらくパラメトリックでない外部モジュールを活用して、従来の言語モデリングパラダイムから離れ、コンテキスト処理能力を増強する。
大規模言語モデルの拡張における現在の進歩を探究し、この新たな研究の方向性は幻覚や根拠のない応答、スケーラビリティの課題など、従来のlmmで一般的な問題に対処する可能性を秘めていると結論づけた。
関連論文リスト
- Large Language Models are Limited in Out-of-Context Knowledge Reasoning [65.72847298578071]
大規模言語モデル (LLMs) は、文脈内推論の実行において広範な知識と強力な能力を持っている。
本稿では、複数の知識を組み合わせて新しい知識を推論する、文脈外知識推論(OCKR)という、文脈外推論の重要な側面に焦点を当てる。
論文 参考訳(メタデータ) (2024-06-11T15:58:59Z) - Evaluating the External and Parametric Knowledge Fusion of Large Language Models [72.40026897037814]
我々は、知識融合シナリオをシミュレートするデータ構築と知識注入のための体系的なパイプラインを開発する。
本研究は, LLMにおけるパラメトリック知識の強化が, 知識統合能力を大幅に向上させることを明らかにした。
本研究の目的は,LLM内の外部およびパラメトリック知識の調和を図ることにある。
論文 参考訳(メタデータ) (2024-05-29T11:48:27Z) - Quantitative knowledge retrieval from large language models [4.155711233354597]
大規模言語モデル(LLM)は、説得力のある自然言語配列を生成する能力について広く研究されている。
本稿では,データ解析作業を支援するための定量的知識検索のメカニズムとして,LLMの実現可能性について検討する。
論文 参考訳(メタデータ) (2024-02-12T16:32:37Z) - A Comprehensive Study of Knowledge Editing for Large Language Models [82.65729336401027]
大規模言語モデル(LLM)は、人間のコミュニケーションを忠実に反映したテキストの理解と生成の素晴らしい能力を示している。
本稿では,知識編集の問題を定義し,最先端アプローチの包括的レビューを行う。
我々は,代表的知識編集アプローチの総合的評価のための新しいベンチマークであるKnowEditを紹介した。
論文 参考訳(メタデータ) (2024-01-02T16:54:58Z) - Data Distribution Bottlenecks in Grounding Language Models to Knowledge
Bases [9.610231090476857]
言語モデル(LM)は、自然言語と形式言語の両方を理解し、生成する際、すでに顕著な能力を示している。
本論文は,知識ベース質問応答(KBQA)を課題として,LMが直面する課題を明らかにすることを目的とした実験的研究である。
実験の結果,提案手法を応用しても,様々な次元において,先進的な小・大規模言語モデルの性能が低下していることが判明した。
論文 参考訳(メタデータ) (2023-09-15T12:06:45Z) - Exploiting Language Models as a Source of Knowledge for Cognitive Agents [4.557963624437782]
大規模言語モデル(LLM)は、質問応答、要約、自然言語推論など、文の完成度をはるかに超える機能を提供する。
これらの能力の多くは認知システムに潜在的に適用できるが、我々の研究は認知エージェントのタスク知識の源として言語モデルを利用しており、認知アーキテクチャを通じて実現されたエージェントである。
論文 参考訳(メタデータ) (2023-09-05T15:18:04Z) - ExpeL: LLM Agents Are Experiential Learners [60.54312035818746]
実験学習エージェント(ExpeL)を導入し、パラメトリック更新を必要とせずにエージェント体験から学習できるようにする。
我々のエージェントは、経験を自律的に収集し、学習課題の集合から自然言語を用いて知識を抽出する。
推論において、エージェントは抽出された洞察と過去の経験をリコールし、情報的決定を行う。
論文 参考訳(メタデータ) (2023-08-20T03:03:34Z) - Thrust: Adaptively Propels Large Language Models with External Knowledge [58.72867916604562]
大規模事前学習言語モデル(PTLM)は、モデルパラメータの豊富な知識を符号化する。
PTLMの固有の知識は不透明または静的であり、外部の知識を必要とする。
本稿では,外部知識のインスタンスレベル適応推進(IAPEK)を提案する。
論文 参考訳(メタデータ) (2023-07-19T20:16:46Z) - Knowledge Rumination for Pre-trained Language Models [77.55888291165462]
本稿では,学習前の言語モデルが外部コーパスから検索することなく,関連する潜在知識を活用できるようにするための,Knowledge Ruminationと呼ばれる新しいパラダイムを提案する。
本稿では,RoBERTa,DeBERTa,GPT-3などの言語モデルに適用する。
論文 参考訳(メタデータ) (2023-05-15T15:47:09Z) - LM-CORE: Language Models with Contextually Relevant External Knowledge [13.451001884972033]
モデルパラメータに大量の知識を格納することは、絶え間なく増加する知識とリソースの要求を考えると、準最適である、と我々は主張する。
LM-CORE - これを実現するための一般的なフレームワークで、外部の知識ソースから言語モデルのトレーニングをテキストデカップリングすることができる。
実験結果から, LM-COREは知識探索タスクにおいて, 最先端の知識強化言語モデルよりも大きく, 堅牢な性能を実現していることがわかった。
論文 参考訳(メタデータ) (2022-08-12T18:59:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。