論文の概要: LLM4PM: A case study on using Large Language Models for Process Modeling in Enterprise Organizations
- arxiv url: http://arxiv.org/abs/2407.17478v1
- Date: Mon, 1 Jul 2024 19:57:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-28 18:09:38.421098
- Title: LLM4PM: A case study on using Large Language Models for Process Modeling in Enterprise Organizations
- Title(参考訳): LLM4PM:大企業における大規模言語モデルによるプロセスモデリングのケーススタディ
- Authors: Clara Ziche, Giovanni Apruzzese,
- Abstract要約: 本稿では,大規模言語モデル(LLM)を用いてプロセスモデル作成を支援する可能性について検討する。
多国籍企業でLLMベースのロボット PRODIGY を開発した。
実世界におけるプロセスモデリングにおける LLM の実用化について紹介する。
- 参考スコア(独自算出の注目度): 4.952592509670493
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We investigate the potential of using Large Language Models (LLM) to support process model creation in organizational contexts. Specifically, we carry out a case study wherein we develop and test an LLM-based chatbot, PRODIGY (PROcess moDellIng Guidance for You), in a multinational company, the Hilti Group. We are particularly interested in understanding how LLM can aid (human) modellers in creating process flow diagrams. To this purpose, we first conduct a preliminary user study (n=10) with professional process modellers from Hilti, inquiring for various pain-points they encounter in their daily routines. Then, we use their responses to design and implement PRODIGY. Finally, we evaluate PRODIGY by letting our user study's participants use PRODIGY, and then ask for their opinion on the pros and cons of PRODIGY. We coalesce our results in actionable takeaways. Through our research, we showcase the first practical application of LLM for process modelling in the real world, shedding light on how industries can leverage LLM to enhance their Business Process Management activities.
- Abstract(参考訳): 本稿では,大規模言語モデル(LLM)を用いてプロセスモデル作成を支援する可能性について検討する。
具体的には、多国籍企業であるHilti Groupにおいて、LLMベースのチャットボット PRODIGY(PROcess moDellIng Guidance for You)を開発し、テストするケーススタディを実施する。
私たちは特に、プロセスフロー図の作成において、LLMが(人間)モデラーをどのように役立つかを理解することに興味があります。
そこで本研究では,まずHiltiのプロプロセスモデラーを対象に,日常の業務で遭遇するさまざまな痛み点について,予備的なユーザスタディ(n=10)を行う。
そして,その応答を利用してPRODIGYを設計,実装する。
最後に、ユーザの学習参加者にProDIGYを使わせることでProDIGYを評価し、ProDIGYの長所と短所について意見を求める。
私たちは結果を実用的なテイクアウトで合体させます。
本研究は,LLMを実世界のプロセスモデリングに適用し,産業がLLMをどのように活用してビジネスプロセス管理活動を強化するかを明らかにするものである。
関連論文リスト
- PM-LLM-Benchmark: Evaluating Large Language Models on Process Mining Tasks [45.129578769739]
大規模言語モデル(LLM)は、プロセスマイニング(PM)分析を半自動化する可能性がある。
ドメイン知識に着目したPMの総合ベンチマークであるPM-LLM-Benchmarkを提案する。
検討対象のLLMのほとんどは, 良好なレベルでプロセスマイニング作業を行うことができるが, エッジデバイス上で実行される小さなモデルはまだ不十分である。
論文 参考訳(メタデータ) (2024-07-18T07:57:31Z) - Evaluating the Ability of LLMs to Solve Semantics-Aware Process Mining Tasks [3.9273545629281252]
大規模言語モデル(LLM)は、プロセスの振る舞いを理解することの恩恵を受けるプロセスマイニングタスクに取り組むために使用できる。
本稿では,LLMがプロセスマイニングタスクに対処する能力について検討する。
論文 参考訳(メタデータ) (2024-07-02T14:44:49Z) - Q*: Improving Multi-step Reasoning for LLMs with Deliberative Planning [53.6472920229013]
大規模言語モデル(LLM)は多くの自然言語タスクにおいて印象的な能力を示している。
LLMは多段階推論を行う際にエラー、幻覚、矛盾する文を生成する傾向がある。
本稿では,LLMの復号化過程を検討計画で導くためのフレームワークであるQ*を紹介する。
論文 参考訳(メタデータ) (2024-06-20T13:08:09Z) - From Words to Actions: Unveiling the Theoretical Underpinnings of LLM-Driven Autonomous Systems [59.40480894948944]
大規模言語モデル (LLM) は、物理世界の意思決定問題を解くことができる。
このモデルの下で、LLM Plannerは、プロンプトを介して言語ベースのサブゴールを反復的に生成することにより、部分的に観測可能なマルコフ決定プロセス(POMDP)をナビゲートする。
我々は,事前学習したLLMプランナーが,文脈内学習を通じてベイズ的集計模倣学習(BAIL)を効果的に行うことを証明した。
論文 参考訳(メタデータ) (2024-05-30T09:42:54Z) - Reinforcement Learning Problem Solving with Large Language Models [0.0]
大規模言語モデル (LLM) には膨大な量の世界知識があり、自然言語処理 (NLP) タスクの性能向上のために様々な分野に応用できるようになっている。
これはまた、人間とAIシステム間の会話に基づく対話による、意図した問題を解決するための、よりアクセスしやすいパラダイムを促進する。
研究科学者」と「レガリー・マター・インテーク」の2つの詳細なケーススタディを通して、我々のアプローチの実践性を示す。
論文 参考訳(メタデータ) (2024-04-29T12:16:08Z) - Large Language Models: A Survey [69.72787936480394]
大規模言語モデル(LLM)は、広範囲の自然言語タスクにおける強力なパフォーマンスのために、多くの注目を集めている。
LLMの汎用言語理解と生成能力は、膨大なテキストデータに基づいて数十億のモデルのパラメータを訓練することで得られる。
論文 参考訳(メタデータ) (2024-02-09T05:37:09Z) - Supervised Knowledge Makes Large Language Models Better In-context Learners [94.89301696512776]
大規模言語モデル(LLM)は、素早い工学を通して、文脈内学習能力の出現を示す。
自然言語理解と質問応答におけるLLMの一般化性と事実性の向上という課題は、まだ未解決のままである。
本研究では, LLM の信頼性を高める枠組みを提案する。1) 分布外データの一般化,2) 差別モデルによる LLM のメリットの解明,3) 生成タスクにおける幻覚の最小化。
論文 参考訳(メタデータ) (2023-12-26T07:24:46Z) - Instruction Tuning for Large Language Models: A Survey [52.86322823501338]
我々は、ITの一般的な方法論、ITデータセットの構築、ITモデルのトレーニング、異なるモダリティ、ドメイン、アプリケーションへのアプリケーションを含む、文献を体系的にレビューする。
また、ITの潜在的な落とし穴とそれに対する批判、および既存の戦略の現在の欠陥を指摘し、実りある研究の道筋を提案する。
論文 参考訳(メタデータ) (2023-08-21T15:35:16Z) - GPT Models in Construction Industry: Opportunities, Limitations, and a
Use Case Validation [3.378773915814389]
本研究は,建設業におけるGPTモデルの評価を目的とした。
その結果,プロジェクトライフサイクル全体を通してGPTモデルの可能性が明らかになった。
GPTモデルを活用する上での課題が強調され、材料選択と最適化のためのユースケースプロトタイプが開発されている。
論文 参考訳(メタデータ) (2023-05-30T12:50:51Z) - Iterative Forward Tuning Boosts In-Context Learning in Language Models [88.25013390669845]
本研究では,大規模言語モデル(LLM)における文脈内学習を促進する新しい2段階フレームワークを提案する。
具体的には、当社のフレームワークでは、ICLプロセスをDeep-ThinkingとTest Stageの2つの別々のステージに分類しています。
ディープシンキング段階にはユニークな注意機構、すなわち反復的な注意強化機構が組み込まれており、複数の情報の蓄積を可能にしている。
論文 参考訳(メタデータ) (2023-05-22T13:18:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。