論文の概要: LLM-Supported Formal Knowledge Representation for Enhancing Control Engineering Content with an Interactive Semantic Layer
- arxiv url: http://arxiv.org/abs/2511.02759v1
- Date: Tue, 04 Nov 2025 17:36:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 18:47:06.125603
- Title: LLM-Supported Formal Knowledge Representation for Enhancing Control Engineering Content with an Interactive Semantic Layer
- Title(参考訳): LLM対応形式的知識表現による対話型意味層による制御工学的内容の強化
- Authors: Julius Fiedler, Carsten Knoll, Klaus Röbenack,
- Abstract要約: 本稿では,形式的知識表現の半自動生成のためのLLM支援手法について概説する。
自然言語記述や数学的定義を形式化された知識グラフに変換する上で,言語モデルがどのように役立つかを実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The rapid growth of research output in control engineering calls for new approaches to structure and formalize domain knowledge. This paper briefly describes an LLM-supported method for semi-automated generation of formal knowledge representations that combine human readability with machine interpretability and increased expressiveness. Based on the Imperative Representation of Knowledge (PyIRK) framework, we demonstrate how language models can assist in transforming natural-language descriptions and mathematical definitions (available as LaTeX source code) into a formalized knowledge graph. As a first application we present the generation of an ``interactive semantic layer'' to enhance the source documents in order to facilitate knowledge transfer. From our perspective this contributes to the vision of easily accessible, collaborative, and verifiable knowledge bases for the control engineering domain.
- Abstract(参考訳): 制御工学における研究成果の急速な成長は、ドメイン知識の構造と形式化の新しいアプローチを要求する。
本稿では,人間の読みやすさと機械の解釈可能性,表現性の向上を両立させる形式的知識表現の半自動生成のためのLLM支援手法について概説する。
本稿では,Imperative Representation of Knowledge(PyIRK)フレームワークをベースとして,自然言語記述や数学的定義(LaTeXソースコードとして利用できる)を形式化された知識グラフに変換する上で,言語モデルがどのように役立つかを実証する。
第1のアプリケーションとして、知識伝達を容易にするために、ソース文書を強化するための 'interactive semantic layer'' の生成を示す。
私たちの視点では、これはコントロールエンジニアリングドメインのための、容易にアクセス可能で、協調的で検証可能な知識ベースというビジョンに寄与します。
関連論文リスト
- Prompting is not Enough: Exploring Knowledge Integration and Controllable Generation [89.65955788873532]
オープンドメイン質問応答(OpenQA)は自然言語処理(NLP)の基盤である。
我々は,知識統合と制御可能生成を探求し,OpenQAの性能向上を目的としたGenKIという新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-26T08:18:33Z) - Agentic Publications: An LLM-Driven Framework for Interactive Scientific Publishing, Supplementing Traditional Papers with AI-Powered Knowledge Systems [0.0]
論文をインタラクティブな知識システムに変換するための新しい枠組みである。
我々のアーキテクチャは、検索拡張生成とマルチエージェント検証によって構造化されたデータと非構造化コンテンツを統合する。
主な機能としては、継続的知識更新、新たな発見の自動統合、カスタマイズ可能な詳細レベルなどがある。
論文 参考訳(メタデータ) (2025-05-19T15:28:10Z) - Semantic Mastery: Enhancing LLMs with Advanced Natural Language Understanding [0.0]
本稿では,より高度なNLU技術を用いて,大規模言語モデル(LLM)を進化させる最先端の方法論について論じる。
我々は、構造化知識グラフ、検索強化生成(RAG)、および人間レベルの理解とモデルにマッチする微調整戦略の利用を分析する。
論文 参考訳(メタデータ) (2025-04-01T04:12:04Z) - Leveraging Distillation Techniques for Document Understanding: A Case Study with FLAN-T5 [0.0]
本稿では,LLM ChatGPTから文書理解知識をFLAN-T5に抽出する手法を提案する。
本研究は, 実世界のシナリオにおける高度言語モデルの展開を促進する蒸留技術の可能性を明らかにするものである。
論文 参考訳(メタデータ) (2024-09-17T15:37:56Z) - Rethinking Visual Prompting for Multimodal Large Language Models with External Knowledge [76.45868419402265]
マルチモーダルな大言語モデル(MLLM)は、膨大な高品質の画像テキストデータセットをトレーニングすることで、大きな進歩を遂げている。
しかし、マスクのような細粒度や空間的に密集した情報をテキストで明示的に伝達することの難しさは、MLLMにとって困難である。
本稿では、特殊な視覚モデルから派生した細粒度の外部知識をMLLMに統合する新しい視覚的プロンプト手法を提案する。
論文 参考訳(メタデータ) (2024-07-05T17:43:30Z) - FecTek: Enhancing Term Weight in Lexicon-Based Retrieval with Feature Context and Term-level Knowledge [54.61068946420894]
FEature Context と TErm レベルの知識モジュールを導入して,革新的な手法を提案する。
項重みの特徴コンテキスト表現を効果的に強化するために、FCM(Feature Context Module)が導入された。
また,用語レベルの知識を効果的に活用し,用語重みのモデル化プロセスをインテリジェントに導くための用語レベルの知識誘導モジュール(TKGM)を開発した。
論文 参考訳(メタデータ) (2024-04-18T12:58:36Z) - Large Language Models for Scientific Information Extraction: An
Empirical Study for Virology [0.0]
談話に基づく学術コミュニケーションにおける構造的・意味的内容表現の利用を擁護する。
ウィキペディアのインフォボックスや構造化されたAmazon製品記述といったツールにヒントを得て、構造化された学術貢献要約を生成するための自動アプローチを開発しました。
以上の結果から,FLAN-T5のパラメータは現状のGPT-davinciよりも1000倍少ないことが示唆された。
論文 参考訳(メタデータ) (2024-01-18T15:04:55Z) - Automating Knowledge Acquisition for Content-Centric Cognitive Agents
Using LLMs [0.0]
本稿では,知的エージェントのセマンティックレキシコンにおける新たなエントリの自動学習を支援するために,大規模言語モデル(LLM)技術を利用するシステムについて述べる。
このプロセスは、既存の非トイ辞書と、意味の形式的、存在論的に接地された表現を自然言語文に変換する自然言語生成装置によってブートストラップされる。
論文 参考訳(メタデータ) (2023-12-27T02:31:51Z) - JAKET: Joint Pre-training of Knowledge Graph and Language Understanding [73.43768772121985]
本稿では,知識グラフと言語の両方をモデル化する新しい事前学習フレームワークであるJAKETを提案する。
知識モジュールと言語モジュールは相互に支援するための重要な情報を提供する。
我々の設計により、事前学習されたモデルは、新しいドメインの見知らぬ知識グラフに容易に適応できる。
論文 参考訳(メタデータ) (2020-10-02T05:53:36Z) - CoLAKE: Contextualized Language and Knowledge Embedding [81.90416952762803]
文脈型言語と知識埋め込み(CoLAKE)を提案する。
CoLAKEは、言語と知識の両方の文脈化された表現を、拡張された目的によって共同で学習する。
知識駆動タスク、知識探索タスク、言語理解タスクについて実験を行う。
論文 参考訳(メタデータ) (2020-10-01T11:39:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。