論文の概要: Bring Your Own Knowledge: A Survey of Methods for LLM Knowledge Expansion
- arxiv url: http://arxiv.org/abs/2502.12598v1
- Date: Tue, 18 Feb 2025 07:15:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-19 20:12:08.840409
- Title: Bring Your Own Knowledge: A Survey of Methods for LLM Knowledge Expansion
- Title(参考訳): 独自の知識を提供する - LLM知識拡張のための方法の調査
- Authors: Mingyang Wang, Alisa Stoll, Lukas Lange, Heike Adel, Hinrich Schütze, Jannik Strötgen,
- Abstract要約: 大規模言語モデル(LLM)を新しい多様な知識に適応させることは、現実世界のアプリケーションにおける持続的な有効性に不可欠である。
本調査は, 事実情報, ドメイン知識, 言語習熟度, ユーザの嗜好など, さまざまな知識タイプを統合することに焦点を当てる。
- 参考スコア(独自算出の注目度): 45.36686217199313
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Adapting large language models (LLMs) to new and diverse knowledge is essential for their lasting effectiveness in real-world applications. This survey provides an overview of state-of-the-art methods for expanding the knowledge of LLMs, focusing on integrating various knowledge types, including factual information, domain expertise, language proficiency, and user preferences. We explore techniques, such as continual learning, model editing, and retrieval-based explicit adaptation, while discussing challenges like knowledge consistency and scalability. Designed as a guide for researchers and practitioners, this survey sheds light on opportunities for advancing LLMs as adaptable and robust knowledge systems.
- Abstract(参考訳): 大規模言語モデル(LLM)を新しい多様な知識に適応させることは、現実世界のアプリケーションにおける持続的な有効性に不可欠である。
本調査では, 事実情報, ドメイン知識, 言語習熟度, ユーザ嗜好など, さまざまな知識タイプを統合することに焦点を当て, LLMの知識を拡張するための最先端手法の概要について述べる。
我々は、知識の一貫性やスケーラビリティといった課題を議論しながら、連続学習、モデル編集、検索に基づく明示的な適応などのテクニックを探求する。
研究者や実践者のガイドとして設計されたこの調査は、LLMを適応的で堅牢な知識システムとして前進させる機会に光を当てている。
関連論文リスト
- Effective LLM Knowledge Learning via Model Generalization [73.16975077770765]
大規模言語モデル(LLM)は、広範囲な世界知識を含む膨大なドキュメントに基づいて訓練されている。
自己回帰的な事前学習を通じて知識がどのように獲得されるかは、まだよく理解されていない。
本稿では,LLM知識学習の理解と改善に焦点をあてる。
論文 参考訳(メタデータ) (2025-03-05T17:56:20Z) - Injecting Domain-Specific Knowledge into Large Language Models: A Comprehensive Survey [39.82566660592583]
大規模言語モデル(LLM)は、自然言語理解、テキスト要約、機械翻訳といった様々なタスクにおいて顕著な成功を収めている。
彼らの汎用的な性質は、医療、化学、法的な分析といった専門的な知識を必要とするドメイン固有のアプリケーションにおいて、その効果を制限していることが多い。
これを解決するために、研究者はドメイン固有の知識を統合することでLLMを強化する様々な方法を模索してきた。
論文 参考訳(メタデータ) (2025-02-15T07:43:43Z) - Refine Knowledge of Large Language Models via Adaptive Contrastive Learning [54.61213933999464]
方法の主流は、大規模言語モデルの知識表現を最適化することで幻覚を減らすことである。
知識を精錬するモデルのプロセスは、人間の学習方法から大きな恩恵を受けることができると私たちは信じています。
人間の学習過程を模倣することで,適応的コントラスト学習戦略を設計する。
論文 参考訳(メタデータ) (2025-02-11T02:19:13Z) - A Comprehensive Survey on Integrating Large Language Models with Knowledge-Based Methods [4.686190098233778]
大規模言語モデル(LLM)は構造化知識ベースシステムと統合することができる。
本稿では, LLMと知識基盤の関係を調査し, 実際に適用できる方法について検討し, 技術的, 運用的, 倫理的課題について考察する。
これは、データコンテキスト化、モデル精度、知識リソースの利用に関する構造化知識ベースシステムに生成AIを組み込むことの利点を示す。
論文 参考訳(メタデータ) (2025-01-19T23:25:21Z) - Knowledge Boundary of Large Language Models: A Survey [75.67848187449418]
大規模言語モデル(LLM)はパラメータに膨大な量の知識を格納するが、特定の知識の記憶と利用に制限がある。
これは、LLMの知識境界を理解するための重要な必要性を強調している。
本稿では,LLM知識境界の包括的定義を提案し,知識を4つの異なるタイプに分類する形式化された分類法を提案する。
論文 参考訳(メタデータ) (2024-12-17T02:14:02Z) - Towards Lifelong Learning of Large Language Models: A Survey [20.0936011355535]
この調査は、生涯学習の洗練された風景を掘り下げ、戦略を2つの主要なグループ、内的知識と内的知識に分類する。
本研究では,実世界のアプリケーションにおける大規模言語モデルの適応性,信頼性,全体的な性能を向上させることを目的とする。
論文 参考訳(メタデータ) (2024-06-10T15:46:25Z) - InfuserKI: Enhancing Large Language Models with Knowledge Graphs via Infuser-Guided Knowledge Integration [58.61492157691623]
知識を統合する手法が開発され、外部モジュールを通してLLMをドメイン固有の知識グラフに拡張した。
本研究は,未知の知識をLLMに効率的に統合することで,未知の知識を不要に重複させるという,新たな問題に焦点をあてる。
新しい知識を導入するリスクは、既存の知識を忘れることである。
論文 参考訳(メタデータ) (2024-02-18T03:36:26Z) - A Comprehensive Study of Knowledge Editing for Large Language Models [82.65729336401027]
大規模言語モデル(LLM)は、人間のコミュニケーションを忠実に反映したテキストの理解と生成の素晴らしい能力を示している。
本稿では,知識編集の問題を定義し,最先端アプローチの包括的レビューを行う。
我々は,代表的知識編集アプローチの総合的評価のための新しいベンチマークであるKnowEditを紹介した。
論文 参考訳(メタデータ) (2024-01-02T16:54:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。