論文の概要: A Comprehensive Survey on Integrating Large Language Models with Knowledge-Based Methods
- arxiv url: http://arxiv.org/abs/2501.13947v2
- Date: Wed, 19 Mar 2025 23:27:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-21 16:32:47.196377
- Title: A Comprehensive Survey on Integrating Large Language Models with Knowledge-Based Methods
- Title(参考訳): 知識に基づく大規模言語モデルの統合に関する総合的研究
- Authors: Wenli Yang, Lilian Some, Michael Bain, Byeong Kang,
- Abstract要約: 大規模言語モデル(LLM)は構造化知識ベースシステムと統合することができる。
本稿では, LLMと知識基盤の関係を調査し, 実際に適用できる方法について検討し, 技術的, 運用的, 倫理的課題について考察する。
これは、データコンテキスト化、モデル精度、知識リソースの利用に関する構造化知識ベースシステムに生成AIを組み込むことの利点を示す。
- 参考スコア(独自算出の注目度): 4.686190098233778
- License:
- Abstract: The rapid development of artificial intelligence has led to marked progress in the field. One interesting direction for research is whether Large Language Models (LLMs) can be integrated with structured knowledge-based systems. This approach aims to combine the generative language understanding of LLMs and the precise knowledge representation systems by which they are integrated. This article surveys the relationship between LLMs and knowledge bases, looks at how they can be applied in practice, and discusses related technical, operational, and ethical challenges. Utilizing a comprehensive examination of the literature, the study both identifies important issues and assesses existing solutions. It demonstrates the merits of incorporating generative AI into structured knowledge-base systems concerning data contextualization, model accuracy, and utilization of knowledge resources. The findings give a full list of the current situation of research, point out the main gaps, and propose helpful paths to take. These insights contribute to advancing AI technologies and support their practical deployment across various sectors.
- Abstract(参考訳): 人工知能の急速な発展は、この分野で顕著な進歩をもたらした。
研究の1つの興味深い方向は、Large Language Models(LLM)が構造化知識ベースシステムと統合できるかどうかである。
本手法は,LLMの生成言語理解と統合された知識表現システムを組み合わせることを目的としている。
本稿では, LLMと知識基盤の関係を調査し, 実際に適用できる方法について検討し, 技術的, 運用的, 倫理的課題について考察する。
本研究は,文献の総合的な検討を生かして,重要な問題を特定し,既存の解決策を評価する。
これは、データコンテキスト化、モデル精度、知識リソースの利用に関する構造化知識ベースシステムに生成AIを組み込むことの利点を示す。
この結果は、現在の研究状況の全リストを提供し、主要なギャップを指摘し、取るべき有用な道を提案する。
これらの洞察は、AI技術の進歩に寄与し、さまざまな分野における実践的な展開をサポートする。
関連論文リスト
- IntelliChain: An Integrated Framework for Enhanced Socratic Method Dialogue with LLMs and Knowledge Graphs [1.810537720642316]
本研究では,ソクラテス教育に適したマルチエージェントシステムの設計とコラボレーションの最適化方法について検討する。
この研究は知識グラフを組み込むことによって、特定の教育内容を扱うLLMの能力を高めた。
論文 参考訳(メタデータ) (2025-01-07T03:32:29Z) - Deploying Large Language Models With Retrieval Augmented Generation [0.21485350418225244]
Retrieval Augmented Generationは、大規模言語モデルのトレーニングセット外のデータソースからの知識を統合するための重要なアプローチとして登場した。
本稿では,LLMとRAGを統合して情報検索を行うパイロットプロジェクトの開発とフィールドテストから得られた知見について述べる。
論文 参考訳(メタデータ) (2024-11-07T22:11:51Z) - Knowledge Tagging System on Math Questions via LLMs with Flexible Demonstration Retriever [48.5585921817745]
大きな言語モデル(LLM)は知識タグ付けタスクを自動化するために使われる。
算数問題における知識タグ付けタスクに対するゼロショットと少数ショットの結果の強い性能を示す。
強化学習に基づくデモレトリバーの提案により,異なるサイズのLLMの潜在能力を活用できた。
論文 参考訳(メタデータ) (2024-06-19T23:30:01Z) - A Survey on RAG Meeting LLMs: Towards Retrieval-Augmented Large Language Models [71.25225058845324]
大規模言語モデル(LLM)は、言語理解と生成において革命的な能力を示している。
Retrieval-Augmented Generation (RAG)は、信頼性と最新の外部知識を提供する。
RA-LLMは、モデルの内部知識に頼るのではなく、外部および権威的な知識ベースを活用するために登場した。
論文 参考訳(メタデータ) (2024-05-10T02:48:45Z) - LEARN: Knowledge Adaptation from Large Language Model to Recommendation for Practical Industrial Application [54.984348122105516]
Llm-driven knowlEdge Adaptive RecommeNdation (LEARN)フレームワークは、オープンワールドの知識と協調的な知識をシナジする。
オープンワールドの知識と協調的な知識を相乗化するLlm-driven knowlEdge Adaptive RecommeNdation (LEARN) フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-07T04:00:30Z) - A Comprehensive Study of Knowledge Editing for Large Language Models [82.65729336401027]
大規模言語モデル(LLM)は、人間のコミュニケーションを忠実に反映したテキストの理解と生成の素晴らしい能力を示している。
本稿では,知識編集の問題を定義し,最先端アプローチの包括的レビューを行う。
我々は,代表的知識編集アプローチの総合的評価のための新しいベンチマークであるKnowEditを紹介した。
論文 参考訳(メタデータ) (2024-01-02T16:54:58Z) - Large Language Models for Generative Information Extraction: A Survey [89.71273968283616]
大規模言語モデル(LLM)は、テキスト理解と生成において顕著な能力を示した。
各種IEサブタスクと技術の観点から,これらの作品を分類して概観する。
我々は,最も先進的な手法を実証的に分析し,LLMによるIEタスクの出現傾向を明らかにする。
論文 参考訳(メタデータ) (2023-12-29T14:25:22Z) - Multimodality of AI for Education: Towards Artificial General
Intelligence [14.121655991753483]
マルチモーダル人工知能(AI)アプローチは、教育的文脈における人工知能(AGI)の実現に向けた道を歩んでいる。
この研究は、認知フレームワーク、高度な知識表現、適応学習機構、多様なマルチモーダルデータソースの統合など、AGIの重要な側面を深く掘り下げている。
本稿は、AGI開発における今後の方向性と課題に関する洞察を提供する、教育におけるマルチモーダルAIの役割の意味についても論じる。
論文 参考訳(メタデータ) (2023-12-10T23:32:55Z) - Beyond Factuality: A Comprehensive Evaluation of Large Language Models
as Knowledge Generators [78.63553017938911]
大規模言語モデル(LLM)は、下流の知識集約タスクのための情報検索技術より優れている。
しかし、コミュニティの懸念は、この無検閲の知識を使用することの事実と潜在的意味について多岐にわたる。
本研究では,6つの重要な視点から生成した知識を評価するために設計されたCONNERを紹介する。
論文 参考訳(メタデータ) (2023-10-11T08:22:37Z) - Building Trust in Conversational AI: A Comprehensive Review and Solution
Architecture for Explainable, Privacy-Aware Systems using LLMs and Knowledge
Graph [0.33554367023486936]
我々は150以上の大規模言語モデル(LLM)の詳細なレビューを提供する包括的ツールを紹介する。
本稿では,LLMの言語機能と知識グラフの構造的ダイナミクスをシームレスに統合する機能的アーキテクチャを提案する。
我々のアーキテクチャは言語学の洗練と実情の厳密さを巧みにブレンドし、ロールベースアクセス制御によるデータセキュリティをさらに強化する。
論文 参考訳(メタデータ) (2023-08-13T22:47:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。