論文の概要: From Prompt to Graph: Comparing LLM-Based Information Extraction Strategies in Domain-Specific Ontology Development
- arxiv url: http://arxiv.org/abs/2602.00699v1
- Date: Sat, 31 Jan 2026 12:50:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.342401
- Title: From Prompt to Graph: Comparing LLM-Based Information Extraction Strategies in Domain-Specific Ontology Development
- Title(参考訳): プロンプトからグラフへ:ドメイン特化オントロジー開発におけるLCMに基づく情報抽出戦略の比較
- Authors: Xuan Liu, Ziyu Li, Mu He, Ziyang Ma, Xiaoxu Wu, Gizem Yilmaz, Yiyuan Xia, Bingbing Li, He Tan, Jerry Ying Hsi Fuh, Wen Feng Lu, Anders E. W. Jarfors, Per Jansson,
- Abstract要約: オントロジはドメイン知識の構築、アクセシビリティの向上、共有、再利用に不可欠です。
従来のオントロジーは手動のアノテーションと従来の自然言語処理(NLP)技術に依存している。
LLM(Large Language Models)の台頭は、知識抽出を自動化する新しい可能性を提供する。
本研究では,LLMによる事前学習法,ICL(In-context Learning)法,ドメイン固有テキストから用語と関係を抽出するファインチューニング法など,LLMに基づく3つのアプローチについて検討した。
- 参考スコア(独自算出の注目度): 14.475791894420666
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ontologies are essential for structuring domain knowledge, improving accessibility, sharing, and reuse. However, traditional ontology construction relies on manual annotation and conventional natural language processing (NLP) techniques, making the process labour-intensive and costly, especially in specialised fields like casting manufacturing. The rise of Large Language Models (LLMs) offers new possibilities for automating knowledge extraction. This study investigates three LLM-based approaches, including pre-trained LLM-driven method, in-context learning (ICL) method and fine-tuning method to extract terms and relations from domain-specific texts using limited data. We compare their performances and use the best-performing method to build a casting ontology that validated by domian expert.
- Abstract(参考訳): オントロジはドメイン知識の構築、アクセシビリティの向上、共有、再利用に不可欠です。
しかし、従来のオントロジーの構築は手動のアノテーションと従来の自然言語処理(NLP)技術に依存しており、特に鋳造製造のような特殊分野において、そのプロセスは労働集約的でコストがかかる。
LLM(Large Language Models)の台頭は、知識抽出を自動化する新しい可能性を提供する。
本研究では,LLMによる事前学習法,ICL(In-context Learning)法,微調整法など,LLMに基づく3つの手法について検討した。
それらの性能を比較し,ドミアンの専門家が検証した鋳造オントロジーを構築するために,最高の性能の手法を用いる。
関連論文リスト
- Integrating Domain Knowledge into Process Discovery Using Large Language Models [3.7448613209842967]
本稿では,自然言語で表現されたドメイン知識をプロセス発見パイプラインに組み込む対話型フレームワークを提案する。
このフレームワークは、LLM(Large Language Models)、ドメインエキスパート、バックエンドサービスのセット間のインタラクションを調整する。
我々の実証研究は、実際のイベントログに基づくケーススタディと、フレームワークのユーザビリティと有効性を評価するドメインエキスパートの関与を含む。
論文 参考訳(メタデータ) (2025-10-08T15:59:11Z) - LLM-based Triplet Extraction for Automated Ontology Generation in Software Engineering Standards [0.0]
ソフトウェアエンジニアリング標準(SES)は、長い、構造化されていないテキスト(高いノイズを伴う)とドメイン固有の用語の段落から構成される。
本研究では,オープンソースの大規模言語モデル (LLM) を用いたSESのためのRTEアプローチを提案する。
論文 参考訳(メタデータ) (2025-08-29T17:14:54Z) - Post-Incorporating Code Structural Knowledge into Pretrained Models via ICL for Code Translation [15.73070332657629]
大規模言語モデル(LLM)はソフトウェアマイニングにおいて大きな進歩を遂げた。
ソースコードの構文構造を扱うことは 依然として課題です
本稿では、コード構造知識を事前学習したLLMに組み込むために、インコンテキスト学習(ICL)を用いる。
論文 参考訳(メタデータ) (2025-03-28T10:59:42Z) - MoRE-LLM: Mixture of Rule Experts Guided by a Large Language Model [54.14155564592936]
大規模言語モデル(MoRE-LLM)によるルールエキスパートの混合を提案する。
MoRE-LLMは、トレーニング中の局所的なルールベースのサロゲートの発見と、それらの分類タスクの利用を操縦する。
LLMはルールを修正・コンテキスト化することで、ルールのドメイン知識の整合性を高める役割を担います。
論文 参考訳(メタデータ) (2025-03-26T11:09:21Z) - NLP4PBM: A Systematic Review on Process Extraction using Natural Language Processing with Rule-based, Machine and Deep Learning Methods [0.0]
本稿では,自然言語処理(NLP)を用いたテキスト記述の構造化プロセスへの変換という,自動プロセス抽出の分野を概観する。
機械学習 (ML) / ディープラーニング (DL) メソッドが NLP コンポーネントにますます利用されていることが分かりました。
いくつかのケースでは、プロセス抽出に対する適合性から選択され、その結果、古典的なルールベースの手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-09-10T15:16:02Z) - Structure-aware Domain Knowledge Injection for Large Language Models [38.08691252042949]
StructTuningは、大規模言語モデル(LLM)をドメインスペシャリストに変換する方法論である。
従来の知識注入性能の100パーセントを達成しながら、トレーニングコーパスに必要なトレーニングコーパスをわずか5%削減します。
論文 参考訳(メタデータ) (2024-07-23T12:38:48Z) - LLM Inference Unveiled: Survey and Roofline Model Insights [62.92811060490876]
大規模言語モデル(LLM)推論は急速に進化しており、機会と課題のユニークなブレンドを提示している。
本調査は, 研究状況を要約するだけでなく, 屋上モデルに基づく枠組みを導入することによって, 従来の文献レビューから際立っている。
このフレームワークは、ハードウェアデバイスにLSMをデプロイする際のボトルネックを特定し、実用上の問題を明確に理解する。
論文 参考訳(メタデータ) (2024-02-26T07:33:05Z) - PANDA: Preference Adaptation for Enhancing Domain-Specific Abilities of LLMs [49.32067576992511]
大規模言語モデルは、しばしばドメイン固有の最先端モデルによって達成されるパフォーマンスに欠ける。
LLMのドメイン固有の機能を強化する1つの潜在的アプローチは、対応するデータセットを使用してそれらを微調整することである。
LLM(PANDA)のドメイン固有能力を高めるための優先度適応法を提案する。
実験の結果,PANDA はテキスト分類や対話型意思決定タスクにおいて LLM のドメイン固有性を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2024-02-20T09:02:55Z) - Knowledge Plugins: Enhancing Large Language Models for Domain-Specific
Recommendations [50.81844184210381]
本稿では,大規模言語モデルをDOmain固有のKnowledgEで拡張し,実践的アプリケーション,すなわちDOKEの性能を向上させるためのパラダイムを提案する。
このパラダイムはドメイン知識抽出器に依存し,1)タスクに効果的な知識を準備すること,2)特定のサンプルごとに知識を選択すること,3)LLMで理解可能な方法で知識を表現すること,の3つのステップで動作する。
論文 参考訳(メタデータ) (2023-11-16T07:09:38Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。