論文の概要: Bring Your Own Knowledge: A Survey of Methods for LLM Knowledge Expansion
- arxiv url: http://arxiv.org/abs/2502.12598v1
- Date: Tue, 18 Feb 2025 07:15:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-19 14:02:58.714955
- Title: Bring Your Own Knowledge: A Survey of Methods for LLM Knowledge Expansion
- Title(参考訳): 独自の知識を提供する - LLM知識拡張のための方法の調査
- Authors: Mingyang Wang, Alisa Stoll, Lukas Lange, Heike Adel, Hinrich Schütze, Jannik Strötgen,
- Abstract要約: 大規模言語モデル(LLM)を新しい多様な知識に適応させることは、現実世界のアプリケーションにおける持続的な有効性に不可欠である。
本調査は, 事実情報, ドメイン知識, 言語習熟度, ユーザの嗜好など, さまざまな知識タイプを統合することに焦点を当てる。
- 参考スコア(独自算出の注目度): 45.36686217199313
- License:
- Abstract: Adapting large language models (LLMs) to new and diverse knowledge is essential for their lasting effectiveness in real-world applications. This survey provides an overview of state-of-the-art methods for expanding the knowledge of LLMs, focusing on integrating various knowledge types, including factual information, domain expertise, language proficiency, and user preferences. We explore techniques, such as continual learning, model editing, and retrieval-based explicit adaptation, while discussing challenges like knowledge consistency and scalability. Designed as a guide for researchers and practitioners, this survey sheds light on opportunities for advancing LLMs as adaptable and robust knowledge systems.
- Abstract(参考訳): 大規模言語モデル(LLM)を新しい多様な知識に適応させることは、現実世界のアプリケーションにおける持続的な有効性に不可欠である。
本調査では, 事実情報, ドメイン知識, 言語習熟度, ユーザ嗜好など, さまざまな知識タイプを統合することに焦点を当て, LLMの知識を拡張するための最先端手法の概要について述べる。
我々は、知識の一貫性やスケーラビリティといった課題を議論しながら、連続学習、モデル編集、検索に基づく明示的な適応などのテクニックを探求する。
研究者や実践者のガイドとして設計されたこの調査は、LLMを適応的で堅牢な知識システムとして前進させる機会に光を当てている。
関連論文リスト
- Injecting Domain-Specific Knowledge into Large Language Models: A Comprehensive Survey [39.82566660592583]
大規模言語モデル(LLM)は、自然言語理解、テキスト要約、機械翻訳といった様々なタスクにおいて顕著な成功を収めている。
彼らの汎用的な性質は、医療、化学、法的な分析といった専門的な知識を必要とするドメイン固有のアプリケーションにおいて、その効果を制限していることが多い。
これを解決するために、研究者はドメイン固有の知識を統合することでLLMを強化する様々な方法を模索してきた。
論文 参考訳(メタデータ) (2025-02-15T07:43:43Z) - Refine Knowledge of Large Language Models via Adaptive Contrastive Learning [54.61213933999464]
方法の主流は、大規模言語モデルの知識表現を最適化することで幻覚を減らすことである。
知識を精錬するモデルのプロセスは、人間の学習方法から大きな恩恵を受けることができると私たちは信じています。
人間の学習過程を模倣することで,適応的コントラスト学習戦略を設計する。
論文 参考訳(メタデータ) (2025-02-11T02:19:13Z) - A Comprehensive Survey on Integrating Large Language Models with Knowledge-Based Methods [4.686190098233778]
本稿では、データコンテキスト化の改善、モデルの精度の向上、知識リソースの利用改善など、生成AIを知識ベースに統合するメリットを強調した。
この調査結果は、現在の研究状況の詳細な概要を提供し、重要なギャップを特定し、実行可能なレコメンデーションを提供する。
論文 参考訳(メタデータ) (2025-01-19T23:25:21Z) - Knowledge Boundary of Large Language Models: A Survey [75.67848187449418]
大規模言語モデル(LLM)はパラメータに膨大な量の知識を格納するが、特定の知識の記憶と利用に制限がある。
これは、LLMの知識境界を理解するための重要な必要性を強調している。
本稿では,LLM知識境界の包括的定義を提案し,知識を4つの異なるタイプに分類する形式化された分類法を提案する。
論文 参考訳(メタデータ) (2024-12-17T02:14:02Z) - KaLM: Knowledge-aligned Autoregressive Language Modeling via Dual-view Knowledge Graph Contrastive Learning [74.21524111840652]
本稿では、textitKnowledge-aligned Language Modeling アプローチである textbfKaLM を提案する。
明示的な知識アライメントと暗黙的な知識アライメントという共同目的を通じて、KG知識と整合するように、自己回帰的な大規模言語モデルを微調整する。
特に,本手法は知識駆動型タスクの評価において顕著な性能向上を実現している。
論文 参考訳(メタデータ) (2024-12-06T11:08:24Z) - Towards Lifelong Learning of Large Language Models: A Survey [20.0936011355535]
この調査は、生涯学習の洗練された風景を掘り下げ、戦略を2つの主要なグループ、内的知識と内的知識に分類する。
本研究では,実世界のアプリケーションにおける大規模言語モデルの適応性,信頼性,全体的な性能を向上させることを目的とする。
論文 参考訳(メタデータ) (2024-06-10T15:46:25Z) - InfuserKI: Enhancing Large Language Models with Knowledge Graphs via Infuser-Guided Knowledge Integration [58.61492157691623]
知識を統合する手法が開発され、外部モジュールを通してLLMをドメイン固有の知識グラフに拡張した。
本研究は,未知の知識をLLMに効率的に統合することで,未知の知識を不要に重複させるという,新たな問題に焦点をあてる。
新しい知識を導入するリスクは、既存の知識を忘れることである。
論文 参考訳(メタデータ) (2024-02-18T03:36:26Z) - A Comprehensive Study of Knowledge Editing for Large Language Models [82.65729336401027]
大規模言語モデル(LLM)は、人間のコミュニケーションを忠実に反映したテキストの理解と生成の素晴らしい能力を示している。
本稿では,知識編集の問題を定義し,最先端アプローチの包括的レビューを行う。
我々は,代表的知識編集アプローチの総合的評価のための新しいベンチマークであるKnowEditを紹介した。
論文 参考訳(メタデータ) (2024-01-02T16:54:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。