論文の概要: Generation of Asset Administration Shell with Large Language Model Agents: Interoperability in Digital Twins with Semantic Node
- arxiv url: http://arxiv.org/abs/2403.17209v1
- Date: Mon, 25 Mar 2024 21:37:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-27 19:26:23.246370
- Title: Generation of Asset Administration Shell with Large Language Model Agents: Interoperability in Digital Twins with Semantic Node
- Title(参考訳): 大規模言語モデルエージェントを用いたアセット管理シェルの生成:セマンティックノードを用いたディジタル双生児の相互運用性
- Authors: Yuchen Xia, Zhewen Xiao, Nasser Jazdi, Michael Weyrich,
- Abstract要約: 本研究では,デジタル双対モデリングのためのアセット管理シェル(AAS)インスタンス作成を支援する新しいアプローチを提案する。
テキストデータのセマンティックな意味を捉えるために「意味ノード」データ構造を構築した。
大規模言語モデルを用いたシステムは、"セマンティックノード"を処理し、AASインスタンスモデルを生成するように設計され、実装されている。
- 参考スコア(独自算出の注目度): 0.6749750044497732
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This research introduces a novel approach for assisting the creation of Asset Administration Shell (AAS) instances for digital twin modeling within the context of Industry 4.0, aiming to enhance interoperability in smart manufacturing and reduce manual effort. We construct a "semantic node" data structure to capture the semantic essence of textual data. Then, a system powered by large language models is designed and implemented to process "semantic node" and generate AAS instance models from textual technical data. Our evaluation demonstrates a 62-79% effective generation rate, indicating a substantial proportion of manual creation effort can be converted into easier validation effort, thereby reducing the time and cost in creating AAS instance models. In our evaluation, a comparative analysis of different LLMs and an in-depth ablation study of Retrieval-Augmented Generation (RAG) mechanisms provide insights into the effectiveness of LLM systems for interpreting technical concepts. Our findings emphasize LLMs' capability in automating AAS instance creation, enhancing semantic interoperability, and contributing to the broader field of semantic interoperability for digital twins in industrial applications. The prototype implementation and evaluation results are released on our GitHub Repository with the link: https://github.com/YuchenXia/AASbyLLM
- Abstract(参考訳): 本研究は、産業4.0におけるデジタル双対モデリングのためのアセット管理シェル(AAS)インスタンスの作成を支援する新しいアプローチを導入し、スマート製造における相互運用性の向上と手作業の削減を目的とする。
テキストデータのセマンティックな意味を捉えるために「意味ノード」データ構造を構築した。
次に、大規模言語モデルを用いたシステムの設計と実装を行い、「意味ノード」を処理し、テキスト技術データからAASインスタンスモデルを生成する。
評価の結果,62~79%の有効生成率を示し,手作業による作成作業のかなりの割合を簡易な検証作業に変換することができ,AASインスタンスモデル作成の時間とコストを削減できることを示した。
本評価では, 異なるLLMの比較分析と検索・拡張生成(RAG)機構の詳細なアブレーション研究により, 技術的概念を解釈するためのLLMシステムの有効性について考察した。
本研究は,ALSインスタンスの自動生成,セマンティックインターオペラビリティの強化,産業アプリケーションにおけるデジタル双生児のセマンティックインターオペラビリティの幅広い分野への寄与など,LCMの能力を強調した。
プロトタイプの実装と評価結果は、リンクでGitHub Repositoryでリリースされています。
関連論文リスト
- Mixture-of-Instructions: Comprehensive Alignment of a Large Language Model through the Mixture of Diverse System Prompting Instructions [7.103987978402038]
我々はMixture-of-Instructions (MoI)と呼ばれる新しいテクニックを紹介する。
MoIは、言語モデルのアライメント効率を高めるために、多様なシステムプロンプトと組み合わせた命令結合戦略を採用している。
提案手法はオープンソースQwen-7B-chatモデルに適用され,Qwen-SFT-MoIの開発が完了した。
論文 参考訳(メタデータ) (2024-04-29T03:58:12Z) - Semantic Routing for Enhanced Performance of LLM-Assisted Intent-Based 5G Core Network Management and Orchestration [10.981422497762837]
大規模言語モデル(LLM)は人工知能(AI)アプリケーションで急速に普及している。
本稿では,5Gコアネットワークの意図に基づく管理とオーケストレーションにおける性能向上を目的としたセマンティックルーティングを提案する。
論文 参考訳(メタデータ) (2024-04-24T13:34:20Z) - Structured Entity Extraction Using Large Language Models [52.281701191329]
大規模言語モデル(LLM)は、構造化されていないテキストから構造化された情報を抽出する上で重要な役割を果たす。
タスクをエンティティ中心にすることで、さまざまな視点からより多くの洞察を提供するさまざまなメトリクスの使用を可能にします。
論文 参考訳(メタデータ) (2024-02-06T22:15:09Z) - SymbolicAI: A framework for logic-based approaches combining generative
models and solvers [10.558183419341514]
SymbolicAIは、生成プロセスにおける概念学習とフロー管理に論理ベースのアプローチを採用する、汎用的でモジュール化されたフレームワークである。
我々は,大規模言語モデル(LLM)を,自然言語命令と形式言語命令の両方に基づいてタスクを実行する意味的解決器として扱う。
論文 参考訳(メタデータ) (2024-02-01T18:50:50Z) - Graph-Induced Syntactic-Semantic Spaces in Transformer-Based Variational
AutoEncoders [5.037881619912574]
本稿では,トランスフォーマーを用いたVAEにおける構造構文注入のための潜時空間分離法について検討する。
具体的には、グラフベースおよびシーケンシャルモデルの統合により、符号化段階で構文構造をどのように活用するかを検討する。
我々の経験的評価は、自然言語文と数学的表現に基づいて行われ、提案したエンドツーエンドのVAEアーキテクチャにより、潜在空間の全体構造がより良くなることを示している。
論文 参考訳(メタデータ) (2023-11-14T22:47:23Z) - QualEval: Qualitative Evaluation for Model Improvement [82.73561470966658]
モデル改善のための手段として,自動定性評価による定量的スカラー指標を付加するQualEvalを提案する。
QualEvalは強力なLCM推論器と新しいフレキシブルリニアプログラミングソルバを使用して、人間の読みやすい洞察を生成する。
例えば、その洞察を活用することで、Llama 2モデルの絶対性能が最大15%向上することを示す。
論文 参考訳(メタデータ) (2023-11-06T00:21:44Z) - Recommender AI Agent: Integrating Large Language Models for Interactive
Recommendations [53.76682562935373]
我々は,LLMを脳として,レコメンダモデルをツールとして使用する,textbfInteRecAgentという効率的なフレームワークを紹介した。
InteRecAgentは会話レコメンデーションシステムとして満足度を達成し、汎用LLMよりも優れる。
論文 参考訳(メタデータ) (2023-08-31T07:36:44Z) - LAMM: Language-Assisted Multi-Modal Instruction-Tuning Dataset,
Framework, and Benchmark [81.42376626294812]
本稿では,Language-Assisted Multi-Modalインストラクションチューニングデータセット,フレームワーク,ベンチマークを提案する。
我々の目標は、MLLMのトレーニングと評価のための成長するエコシステムとしてLAMMを確立することです。
本稿では,2次元および3次元視覚のための広範囲な視覚タスクをカバーする包括的データセットとベンチマークを提案する。
論文 参考訳(メタデータ) (2023-06-11T14:01:17Z) - USER: Unified Semantic Enhancement with Momentum Contrast for Image-Text
Retrieval [115.28586222748478]
Image-Text Retrieval (ITR) は、与えられたクエリに意味のあるターゲットインスタンスを、他のモダリティから検索することを目的としている。
既存のアプローチは通常、2つの大きな制限に悩まされる。
論文 参考訳(メタデータ) (2023-01-17T12:42:58Z) - Leveraging Advantages of Interactive and Non-Interactive Models for
Vector-Based Cross-Lingual Information Retrieval [12.514666775853598]
対話型モデルと非対話型モデルの利点を活用する新しいフレームワークを提案する。
非対話型アーキテクチャ上でモデルを構築できる半対話型機構を導入するが、各文書を関連付けられた多言語クエリと共にエンコードする。
本手法は,計算効率を維持しながら検索精度を大幅に向上させる。
論文 参考訳(メタデータ) (2021-11-03T03:03:19Z) - Unsupervised Domain Adaptive Learning via Synthetic Data for Person
Re-identification [101.1886788396803]
人物再識別(re-ID)は、ビデオ監視に広く応用されているため、ますます注目を集めている。
残念なことに、主流のディープラーニング手法では、モデルをトレーニングするために大量のラベル付きデータが必要です。
本稿では,コンピュータゲーム内で合成されたre-IDサンプルを自動的に生成するデータコレクタを開発し,同時にアノテートするデータラベラを構築した。
論文 参考訳(メタデータ) (2021-09-12T15:51:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。