論文の概要: A knowledge representation approach for construction contract knowledge
modeling
- arxiv url: http://arxiv.org/abs/2309.12132v1
- Date: Thu, 21 Sep 2023 14:53:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-22 14:48:36.446226
- Title: A knowledge representation approach for construction contract knowledge
modeling
- Title(参考訳): 建設契約知識モデリングのための知識表現手法
- Authors: Chunmo Zheng, Saika Wong, Xing Su, Yinqiu Tang
- Abstract要約: 大規模言語モデル(LLM)の出現は、建設契約管理を自動化する前例のない機会である。
LLMは、ドメインの専門知識が欠如しているため、説得力のあるが不正確で誤解を招くコンテンツを生み出す可能性がある。
本稿では,ネスト構造を用いた契約知識の複雑さを捉える知識表現手法であるNested Contract Knowledge Graph (NCKG)を紹介する。
- 参考スコア(独自算出の注目度): 1.870031206586792
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The emergence of large language models (LLMs) presents an unprecedented
opportunity to automate construction contract management, reducing human errors
and saving significant time and costs. However, LLMs may produce convincing yet
inaccurate and misleading content due to a lack of domain expertise. To address
this issue, expert-driven contract knowledge can be represented in a structured
manner to constrain the automatic contract management process. This paper
introduces the Nested Contract Knowledge Graph (NCKG), a knowledge
representation approach that captures the complexity of contract knowledge
using a nested structure. It includes a nested knowledge representation
framework, a NCKG ontology built on the framework, and an implementation
method. Furthermore, we present the LLM-assisted contract review pipeline
enhanced with external knowledge in NCKG. Our pipeline achieves a promising
performance in contract risk reviewing, shedding light on the combination of
LLM and KG towards more reliable and interpretable contract management.
- Abstract(参考訳): 大規模言語モデル(LLM)の出現は、建設契約管理の自動化、ヒューマンエラーの低減、大幅な時間とコストの削減など、前例のない機会を提供する。
しかし、llmはドメインの専門知識の欠如により、説得力がありながら不正確で誤解を招くコンテンツを生み出す可能性がある。
この問題に対処するために、専門家主導の契約知識は、自動契約管理プロセスを制限する構造化された方法で表現できる。
本稿では,ネスト構造を用いた契約知識の複雑さを捉える知識表現手法であるNested Contract Knowledge Graph (NCKG)を紹介する。
ネストした知識表現フレームワーク、フレームワーク上に構築されたNCKGオントロジー、実装メソッドが含まれている。
さらに,NCKGの外部知識によって強化されたLCM支援契約レビューパイプラインを提案する。
我々のパイプラインは、より信頼性が高く解釈可能な契約管理に向けて、LLMとKGの組み合わせに光を当て、契約リスクのレビューにおいて有望なパフォーマンスを達成する。
関連論文リスト
- IAO Prompting: Making Knowledge Flow Explicit in LLMs through Structured Reasoning Templates [7.839338724237275]
IAO(Input-Action-Output)は,大規模言語モデルがどのようにアクセスし,その知識を適用するかを明確にモデル化するテンプレートベースの構造的手法である。
IAOは問題を逐次的なステップに分解し、それぞれが使用する入力知識、実行中のアクション、および結果の出力を明確に識別する。
本研究は, LLMにおける知識表現と, より信頼性の高い知識応用のための手法に関する知見を提供する。
論文 参考訳(メタデータ) (2025-02-05T11:14:20Z) - Ontology-grounded Automatic Knowledge Graph Construction by LLM under Wikidata schema [60.42231674887294]
本稿では,Large Language Models (LLMs) を用いた知識グラフ構築のためのオントロジー的アプローチを提案する。
我々は、一貫性と解釈可能性を確保するために、抽出された関係に基づいて、著者によるオントロジーによるKGの基底生成を行う。
我々の研究は、人間の介入を最小限に抑えたスケーラブルなKG建設パイプラインの実現に向けて有望な方向を示し、高品質で人間に解釈可能なKGを生み出す。
論文 参考訳(メタデータ) (2024-12-30T13:36:05Z) - KaLM: Knowledge-aligned Autoregressive Language Modeling via Dual-view Knowledge Graph Contrastive Learning [74.21524111840652]
本稿では、textitKnowledge-aligned Language Modeling アプローチである textbfKaLM を提案する。
明示的な知識アライメントと暗黙的な知識アライメントという共同目的を通じて、KG知識と整合するように、自己回帰的な大規模言語モデルを微調整する。
特に,本手法は知識駆動型タスクの評価において顕著な性能向上を実現している。
論文 参考訳(メタデータ) (2024-12-06T11:08:24Z) - KG-RAG: Bridging the Gap Between Knowledge and Creativity [0.0]
大規模言語モデルエージェント(LMA)は、情報幻覚、破滅的な忘れ込み、長いコンテキストの処理における制限といった問題に直面している。
本稿では,LMAの知識能力を高めるため,KG-RAG (Knowledge Graph-Retrieval Augmented Generation)パイプラインを提案する。
ComplexWebQuestionsデータセットに関する予備実験では、幻覚的コンテンツの削減において顕著な改善が示されている。
論文 参考訳(メタデータ) (2024-05-20T14:03:05Z) - Untangle the KNOT: Interweaving Conflicting Knowledge and Reasoning Skills in Large Language Models [51.72963030032491]
大規模言語モデル(LLM)の知識文書は、時代遅れや誤った知識のためにLLMの記憶と矛盾する可能性がある。
我々は,知識紛争解決のための新しいデータセットKNOTを構築した。
論文 参考訳(メタデータ) (2024-04-04T16:40:11Z) - From human experts to machines: An LLM supported approach to ontology
and knowledge graph construction [0.0]
大規模言語モデル(LLM)は、人間のような自然言語を理解し、生成する能力で最近人気を集めている。
本研究は,オープンソースLLMによって促進されるKGの半自動構築について考察する。
論文 参考訳(メタデータ) (2024-03-13T08:50:15Z) - A Knowledge-Injected Curriculum Pretraining Framework for Question Answering [70.13026036388794]
本稿では,知識に基づく質問応答タスクの総合的なKG学習と活用を実現するための一般知識注入型カリキュラム事前学習フレームワーク(KICP)を提案する。
KIモジュールはまずKG中心の事前学習コーパスを生成してLMに知識を注入し、プロセスを3つの重要なステップに一般化する。
KAモジュールは、アダプタを備えたLMで生成されたコーパスから知識を学習し、元の自然言語理解能力を維持できる。
CRモジュールは人間の推論パターンに従って3つのコーパスを構築する。
論文 参考訳(メタデータ) (2024-03-11T03:42:03Z) - Mitigating Large Language Model Hallucinations via Autonomous Knowledge
Graph-based Retrofitting [51.7049140329611]
本稿では,知識グラフに基づくリトロフィッティング(KGR)を提案する。
実験により,実QAベンチマークにおいて,KGRはLLMの性能を大幅に向上できることが示された。
論文 参考訳(メタデータ) (2023-11-22T11:08:38Z) - Construction contract risk identification based on knowledge-augmented
language model [1.870031206586792]
本稿では,人的専門家による契約審査の過程をエミュレートするために,建設契約知識を持つ大規模言語モデルを活用する新しい手法を提案する。
ドメイン知識ベースを構築する際に自然言語を使うことは、実践的な実装を促進する。
論文 参考訳(メタデータ) (2023-09-22T05:27:06Z) - UNTER: A Unified Knowledge Interface for Enhancing Pre-trained Language
Models [100.4659557650775]
構造化知識と非構造化知識の両方を活用する統一的な視点を提供するために、統一知識インターフェイスUNTERを提案する。
どちらの形態の知識も注入され、UNTERは一連の知識駆動NLPタスクの継続的な改善を得る。
論文 参考訳(メタデータ) (2023-05-02T17:33:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。