論文の概要: KRAG Framework for Enhancing LLMs in the Legal Domain
- arxiv url: http://arxiv.org/abs/2410.07551v1
- Date: Thu, 10 Oct 2024 02:48:06 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-31 16:16:17.306619
- Title: KRAG Framework for Enhancing LLMs in the Legal Domain
- Title(参考訳): 法律領域におけるLLMの強化のためのKRAGフレームワーク
- Authors: Nguyen Ha Thanh, Ken Satoh,
- Abstract要約: 本稿ではKRAG(Knowledge Representation Augmented Generation)を紹介する。
KRAGは、ドメイン固有のアプリケーションにおけるLarge Language Models(LLM)の機能を強化するために設計されたフレームワークである。
KRAGに基づく実装モデルであるSoft PROLEGを提案する。
- 参考スコア(独自算出の注目度): 0.48451657575793666
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces Knowledge Representation Augmented Generation (KRAG), a novel framework designed to enhance the capabilities of Large Language Models (LLMs) within domain-specific applications. KRAG points to the strategic inclusion of critical knowledge entities and relationships that are typically absent in standard data sets and which LLMs do not inherently learn. In the context of legal applications, we present Soft PROLEG, an implementation model under KRAG, which uses inference graphs to aid LLMs in delivering structured legal reasoning, argumentation, and explanations tailored to user inquiries. The integration of KRAG, either as a standalone framework or in tandem with retrieval augmented generation (RAG), markedly improves the ability of language models to navigate and solve the intricate challenges posed by legal texts and terminologies. This paper details KRAG's methodology, its implementation through Soft PROLEG, and potential broader applications, underscoring its significant role in advancing natural language understanding and processing in specialized knowledge domains.
- Abstract(参考訳): 本稿では,Large Language Models (LLM) の機能向上を目的とした新しいフレームワークであるKRAG(Knowledge Representation Augmented Generation)を紹介する。
KRAGは、標準データセットに通常欠落している重要な知識エンティティと関係の戦略的包含と、LLMが本質的に学ばないことを指摘している。
KRAGに基づく実装モデルであるSoft PROLEGは,構造化された法的推論,議論,ユーザからの問い合わせに適した説明の提供において,LLMを支援するために推論グラフを使用する。
KRAGの統合は、独立したフレームワークとして、あるいは、検索拡張生成(RAG)と共に、法的テキストや用語によって引き起こされる複雑な課題をナビゲートし解決する言語モデルの能力を大幅に改善する。
本稿では、KRAGの方法論、Soft PROLEGによる実装、および潜在的に広範な応用について詳述し、専門知識領域における自然言語理解と処理の促進における重要な役割について述べる。
関連論文リスト
- RuAG: Learned-rule-augmented Generation for Large Language Models [62.64389390179651]
本稿では,大量のオフラインデータを解釈可能な一階述語論理規則に自動抽出する新しいフレームワーク,RuAGを提案する。
我々は,自然言語処理,時系列,意思決定,産業タスクなど,公共および民間の産業タスクに関する枠組みを評価する。
論文 参考訳(メタデータ) (2024-11-04T00:01:34Z) - StructRAG: Boosting Knowledge Intensive Reasoning of LLMs via Inference-time Hybrid Information Structurization [94.31508613367296]
Retrieval-augmented Generation(RAG)は、大規模言語モデル(LLM)を効果的に強化する鍵となる手段である。
本稿では,手前のタスクに対して最適な構造型を識別し,元の文書をこの構造化形式に再構成し,その結果に基づいて回答を推測するStructRAGを提案する。
実験の結果、StructRAGは最先端のパフォーマンスを実現し、特に挑戦的なシナリオに優れていた。
論文 参考訳(メタデータ) (2024-10-11T13:52:44Z) - Domain-Specific Retrieval-Augmented Generation Using Vector Stores, Knowledge Graphs, and Tensor Factorization [7.522493227357079]
大規模言語モデル(LLM)は大規模コーパスで事前訓練されている。
LLMは幻覚、知識の遮断、知識の帰属の欠如に悩まされる。
SMART-SLICはドメイン固有のLLMフレームワークである。
論文 参考訳(メタデータ) (2024-10-03T17:40:55Z) - TRACE: TRansformer-based Attribution using Contrastive Embeddings in LLMs [50.259001311894295]
TRACE と呼ばれるコントラスト埋め込みを用いた新しいTRansformer-based Attribution フレームワークを提案する。
TRACEは情報源の属性を精度良く改善し,大規模言語モデルの信頼性と信頼性を高める貴重なツールであることを示す。
論文 参考訳(メタデータ) (2024-07-06T07:19:30Z) - A Survey on RAG Meeting LLMs: Towards Retrieval-Augmented Large Language Models [71.25225058845324]
大規模言語モデル(LLM)は、言語理解と生成において革命的な能力を示している。
Retrieval-Augmented Generation (RAG)は、信頼性と最新の外部知識を提供する。
RA-LLMは、モデルの内部知識に頼るのではなく、外部および権威的な知識ベースを活用するために登場した。
論文 参考訳(メタデータ) (2024-05-10T02:48:45Z) - AutoGuide: Automated Generation and Selection of State-Aware Guidelines for Large Language Model Agents [74.17623527375241]
AutoGuideは、オフライン体験における暗黙の知識を活用することで、事前訓練されたLLMの知識ギャップを埋める。
提案手法は, 逐次意思決定ベンチマークにおいて, 競争力のあるLCMベースラインよりも高い性能を示すことを示す。
論文 参考訳(メタデータ) (2024-03-13T22:06:03Z) - Integrating Large Language Models with Graphical Session-Based
Recommendation [8.086277931395212]
LLMGRというグラフィカルなセッションベースレコメンデーションを備えた大規模言語モデルを導入する。
このフレームワークは、SBRタスクのためのLLMとグラフニューラルネットワーク(GNN)を調和して統合することでギャップを埋める。
この統合は、自然言語理解におけるLLMとリレーショナルデータ処理におけるGNNの相補的な強みを活用することを目指している。
論文 参考訳(メタデータ) (2024-02-26T12:55:51Z) - Large Language Models and Explainable Law: a Hybrid Methodology [44.99833362998488]
規則に基づく法体系のアクセシビリティ, 利用, 説明可能性を高めるため, LLMを提唱する。
ルールベースシステムによる説明を翻訳するために, LLM の利用の可能性を探るため, 提案手法を開発した。
論文 参考訳(メタデータ) (2023-11-20T14:47:20Z) - Retrieval-Augmented Chain-of-Thought in Semi-structured Domains [10.417698947670564]
大規模言語モデル(LLM)は、印象的な言語理解とコンテキスト内学習能力を示している。
本研究は,法的・財務的データの半構造化特性を活用し,関連文脈を効率的に検索することを目的とする。
結果として得られるシステムは、現代のモデルよりも優れており、また、回答に有用な説明を提供する。
論文 参考訳(メタデータ) (2023-10-22T22:45:14Z) - Domain Specialization as the Key to Make Large Language Models Disruptive: A Comprehensive Survey [100.24095818099522]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野を著しく進歩させた。
広範囲のアプリケーションに対して、非常に有用でタスクに依存しない基盤を提供する。
しかし、特定の領域における洗練された問題を解決するために直接LLMを適用することは、多くのハードルを満たす。
論文 参考訳(メタデータ) (2023-05-30T03:00:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。