論文の概要: BPMN Assistant: An LLM-Based Approach to Business Process Modeling
- arxiv url: http://arxiv.org/abs/2509.24592v1
- Date: Mon, 29 Sep 2025 10:56:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.929595
- Title: BPMN Assistant: An LLM-Based Approach to Business Process Modeling
- Title(参考訳): BPMNアシスタント: LLMベースのビジネスプロセスモデリングアプローチ
- Authors: Josip Tomo Licardo, Nikola Tankovic, Darko Etinger,
- Abstract要約: 本稿では、自然言語ベースのBPMNダイアグラムの作成と編集にLarge Language Models(LLM)を活用するツールであるBPMN Assistantについて述べる。
プロセス修正の精度を高めるために、XMLの直接処理に代わる構造化された表現として特殊ベースの表現が導入される。
- 参考スコア(独自算出の注目度): 0.9176056742068814
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents BPMN Assistant, a tool that leverages Large Language Models (LLMs) for natural language-based creation and editing of BPMN diagrams. A specialized JSON-based representation is introduced as a structured alternative to the direct handling of XML to enhance the accuracy of process modifications. Process generation quality is evaluated using Graph Edit Distance (GED) and Relative Graph Edit Distance (RGED), while editing performance is evaluated with a binary success metric. Results show that JSON and XML achieve similar similarity scores in generation, but JSON offers greater reliability, faster processing, and significantly higher editing success rates. We discuss key trade-offs, limitations, and future improvements. The implementation is available at https://github.com/jtlicardo/bpmn-assistant.
- Abstract(参考訳): 本稿では、自然言語ベースのBPMNダイアグラムの作成と編集にLarge Language Models(LLM)を活用するツールであるBPMN Assistantについて述べる。
プロセス修正の精度を高めるために、XMLの直接処理に代わる構造化されたJSONベースの表現が導入された。
プロセス生成品質はグラフ編集距離(GED)と相対グラフ編集距離(RGED)を用いて評価し、編集性能はバイナリ成功度で評価する。
結果から、JSONとXMLは、生成時に同様の類似性スコアを得るが、JSONはより信頼性が高く、処理が高速で、編集成功率が著しく高い。
重要なトレードオフ、制限、将来の改善について議論します。
実装はhttps://github.com/jtlicardo/bpmn-assistant.comで公開されている。
関連論文リスト
- AI-assisted JSON Schema Creation and Mapping [0.0]
本稿では,大規模言語モデル(LLM)と決定論的手法を組み合わせて,ユーザによる自然言語入力に基づく生成,修正,スキーママッピングを実現するハイブリッドアプローチを提案する。
この作業は、非専門家のための構造化データモデリングとデータ統合に対する障壁を著しく減らします。
論文 参考訳(メタデータ) (2025-08-07T09:27:10Z) - GraphLAMA: Enabling Efficient Adaptation of Graph Language Models with Limited Annotations [46.15515676751084]
大規模言語モデル(LLM)は様々な領域でその強みを示しており、グラフ言語モデル(GLM)としてグラフ解析に最近統合されている。
LLMを予測子として、いくつかのGLMは自然言語で記述された未確認タスクを解釈し、パラメータチューニングなしでプロンプトのいくつかの例から学習することができる。
効率的なチューニングと推論に特化したモデルバックボーンと学習スキームを備えたGraphLAMA法を提案する。
論文 参考訳(メタデータ) (2025-06-11T16:38:01Z) - Learning to Generate Structured Output with Schema Reinforcement Learning [83.09230124049667]
本研究では,大規模言語モデル(LLM)の構造的生成能力について検討する。
最新のLLMはまだ有効な文字列を生成するのに苦労している。
我々のモデルでは、出力と下流の両方のタスクが大幅に改善されている。
論文 参考訳(メタデータ) (2025-02-26T06:45:29Z) - Training Large Recommendation Models via Graph-Language Token Alignment [53.3142545812349]
本稿では,グラフ言語トークンアライメントによる大規模推薦モデルのトレーニングを行う新しいフレームワークを提案する。
インタラクショングラフからアイテムとユーザノードを事前訓練されたLLMトークンにアライメントすることで、GLTAはLLMの推論能力を効果的に活用する。
さらに、エンドツーエンドのアイテム予測のためのトークンアライメントを最適化するために、GLLM(Graph-Language Logits Matching)を導入する。
論文 参考訳(メタデータ) (2025-02-26T02:19:10Z) - Can Large Language Models Analyze Graphs like Professionals? A Benchmark, Datasets and Models [88.4320775961431]
グラフを処理するために,大規模言語モデル(LLM)のベンチマークであるProGraphを導入する。
その結果,現在のLCMの性能は不満足であり,最高のモデルでは36%の精度しか達成できないことがわかった。
本研究では,6つの広く使用されているグラフライブラリに基づいて,クローリングされたドキュメントと自動生成コードを含むLLM4Graphデータセットを提案する。
論文 参考訳(メタデータ) (2024-09-29T11:38:45Z) - A higher-order transformation approach to the formalization and analysis of BPMN using graph transformation systems [1.0624606551524207]
本稿ではBPMNの実行セマンティクスの形式化を提案する。
私たちのアプローチは、BPMNモデルからグラフ変換システムへの高次の変換に基づいています。
このアプローチの能力を示すため、オープンソースのWebベースツールとして実装しました。
論文 参考訳(メタデータ) (2023-11-09T09:55:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。