論文の概要: A Method for Constructing a Digital Transformation Driving Mechanism Based on Semantic Understanding of Large Models
- arxiv url: http://arxiv.org/abs/2601.04696v1
- Date: Thu, 08 Jan 2026 08:06:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:53.097204
- Title: A Method for Constructing a Digital Transformation Driving Mechanism Based on Semantic Understanding of Large Models
- Title(参考訳): 大規模モデルの意味的理解に基づくディジタルトランスフォーメーション駆動機構の構成法
- Authors: Huayi Liu,
- Abstract要約: デジタルトランスフォーメーションの過程では、非構造化データのセマンティック理解が不十分なような問題に直面している。
本研究では,大規模言語モデル(LLM)と知識グラフを組み合わせた手法を提案する。
- 参考スコア(独自算出の注目度): 0.7252027234425333
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the process of digital transformation, enterprises are faced with problems such as insufficient semantic understanding of unstructured data and lack of intelligent decision-making basis in driving mechanisms. This study proposes a method that combines a large language model (LLM) and a knowledge graph. First, a fine-tuned BERT (Bidirectional Encoder Representations from Transformers) model is used to perform entity recognition and relationship extraction on multi-source heterogeneous texts, and GPT-4 is used to generate semantically enhanced vector representations; secondly, a two-layer graph neural network (GNN) architecture is designed to fuse the semantic vectors output by LLM with business metadata to construct a dynamic and scalable enterprise knowledge graph; then reinforcement learning is introduced to optimize decision path generation, and the reward function is used to drive the mechanism iteration. In the case of the manufacturing industry, this mechanism reduced the response time for equipment failure scenarios from 7.8 hours to 3.7 hours, the F1 value reached 94.3%, and the compensation for decision errors in the annual digital transformation cost decreased by 45.3%. This method significantly enhances the intelligence level and execution efficiency of the digital transformation driving mechanism by integrating large model semantic understanding with structured knowledge.
- Abstract(参考訳): ディジタルトランスフォーメーションの過程では、非構造化データのセマンティック理解が不十分なことや、駆動メカニズムにおける知的意思決定基盤の欠如といった問題に直面している。
本研究では,大規模言語モデル(LLM)と知識グラフを組み合わせた手法を提案する。
まず、マルチソースの異種テキスト上でエンティティ認識と関係抽出を行うために、細調整BERT(Bidirectional Encoder Representations from Transformers)モデルを用いて、意味論的に拡張されたベクトル表現を生成するために、GPT-4を用いて、2層グラフニューラルネットワーク(GNN)アーキテクチャを用いて、LCMが出力するセマンティックベクトルをビジネスメタデータと融合させ、動的でスケーラブルなエンタープライズ知識グラフを構築するために、強化学習を導入し、決定経路生成を最適化し、報酬関数を使用してメカニズムイテレーションを駆動する。
製造業の場合、このメカニズムは機器故障シナリオの応答時間を7.8時間から3.7時間に短縮し、F1値は94.3%に達し、デジタルトランスフォーメーションコストにおける決定エラーの補償は45.3%減少した。
この方法は,構造化知識と大規模モデルのセマンティック理解を統合することにより,デジタルトランスフォーメーション駆動機構のインテリジェンスレベルと実行効率を大幅に向上させる。
関連論文リスト
- Large Language Models Inference Engines based on Spiking Neural Networks [5.529385616266398]
我々は、トランスモデルを設計するためにスパイキングニューラルネットワーク(SNN)を探索する。
大規模SNNのトレーニングにおける課題は、非効率で時間を要する。
推論のためのトランスフォーマーベースSNNを設計する手法であるNeurTransformerを提案する。
論文 参考訳(メタデータ) (2025-09-30T18:11:13Z) - Integrated Multivariate Segmentation Tree for the Analysis of Heterogeneous Credit Data in Small and Medium-Sized Enterprises [11.497136544404727]
本研究では、財務データをテキストソースと統合し、中小企業の信用評価を強化するための総合的な枠組みを提案する。
中国の中小企業のデータセットから得られた実験結果によると、IMSTの精度は88.9%である。
提案モデルでは,より合理化されたアーキテクチャとリスク検出能力の強化を特徴とする,優れた解釈性と計算効率を示す。
論文 参考訳(メタデータ) (2025-08-30T16:16:45Z) - Model Hemorrhage and the Robustness Limits of Large Language Models [119.46442117681147]
大規模言語モデル(LLM)は、自然言語処理タスク全体で強力なパフォーマンスを示すが、デプロイメント用に修正された場合、大幅なパフォーマンス低下を経験する。
この現象をモデル出血(パラメータ変更とアーキテクチャ変更によるパフォーマンス低下)と定義する。
論文 参考訳(メタデータ) (2025-03-31T10:16:03Z) - BHViT: Binarized Hybrid Vision Transformer [53.38894971164072]
モデルバイナライゼーションは畳み込みニューラルネットワーク(CNN)のリアルタイムおよびエネルギー効率の計算を可能にした。
本稿では,バイナライズフレンドリーなハイブリッドViTアーキテクチャであるBHViTとそのバイナライズモデルを提案する。
提案アルゴリズムは,バイナリ ViT 手法間でSOTA 性能を実現する。
論文 参考訳(メタデータ) (2025-03-04T08:35:01Z) - Enhanced LFTSformer: A Novel Long-Term Financial Time Series Prediction Model Using Advanced Feature Engineering and the DS Encoder Informer Architecture [0.8532753451809455]
本研究では,拡張LFTSformerと呼ばれる長期金融時系列の予測モデルを提案する。
このモデルは、いくつかの重要なイノベーションを通じて、自分自身を区別する。
さまざまなベンチマークストックマーケットデータセットに関するシステマティックな実験は、強化LFTSformerが従来の機械学習モデルより優れていることを示している。
論文 参考訳(メタデータ) (2023-10-03T08:37:21Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - T4PdM: a Deep Neural Network based on the Transformer Architecture for
Fault Diagnosis of Rotating Machinery [0.0]
本稿では,Transformerアーキテクチャの修正版であるT4PdMに基づいて,自動故障分類器モデルを構築した。
T4PdMは2つのデータセットの総合精度99.98%と98%を達成した。
回転する産業機械の故障の検出・分類におけるモデルの有用性を実証した。
論文 参考訳(メタデータ) (2022-04-07T20:31:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。