論文の概要: On the Potential of Large Language Models to Solve Semantics-Aware Process Mining Tasks
- arxiv url: http://arxiv.org/abs/2504.21074v1
- Date: Tue, 29 Apr 2025 17:52:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 23:50:16.555783
- Title: On the Potential of Large Language Models to Solve Semantics-Aware Process Mining Tasks
- Title(参考訳): 意味論的プロセスマイニング課題を解決するための大規模言語モデルの可能性について
- Authors: Adrian Rebmann, Fabian David Schmidt, Goran Glavaš, Han van der Aa,
- Abstract要約: 大規模言語モデル(LLM)は、プロセスマイニングタスクに対処するための貴重なツールであることが示されている。
本稿では,意味論的プロセスマイニングタスクにおけるLLMの機能について,体系的に検討する。
セマンティック理解を必要とする5つのプロセスマイニングタスクを定義し、評価のための広範なベンチマークデータセットを提供する。
- 参考スコア(独自算出の注目度): 3.9273545629281252
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) have shown to be valuable tools for tackling process mining tasks. Existing studies report on their capability to support various data-driven process analyses and even, to some extent, that they are able to reason about how processes work. This reasoning ability suggests that there is potential for LLMs to tackle semantics-aware process mining tasks, which are tasks that rely on an understanding of the meaning of activities and their relationships. Examples of these include process discovery, where the meaning of activities can indicate their dependency, whereas in anomaly detection the meaning can be used to recognize process behavior that is abnormal. In this paper, we systematically explore the capabilities of LLMs for such tasks. Unlike prior work, which largely evaluates LLMs in their default state, we investigate their utility through both in-context learning and supervised fine-tuning. Concretely, we define five process mining tasks requiring semantic understanding and provide extensive benchmarking datasets for evaluation. Our experiments reveal that while LLMs struggle with challenging process mining tasks when used out of the box or with minimal in-context examples, they achieve strong performance when fine-tuned for these tasks across a broad range of process types and industries.
- Abstract(参考訳): 大規模言語モデル(LLM)は、プロセスマイニングタスクに対処するための貴重なツールであることが示されている。
既存の研究では、様々なデータ駆動プロセス分析をサポートする能力や、ある程度は、プロセスがどのように機能するかを推論することができることを報告している。
この推論能力は、LCMが、活動の意味とそれらの関係を理解することに依存するタスクである、意味論的プロセスマイニングタスクに取り組む可能性があることを示唆している。
例えば、プロセス発見では、アクティビティの意味がその依存性を示すことができるが、異常検出では、異常なプロセスの振る舞いを認識するために使用することができる。
本稿では,このようなタスクに対するLLMの能力について,体系的に検討する。
既定状態のLCMを主に評価する従来の作業とは異なり,テキスト内学習と教師付き微調整の両方を通じて,それらの実用性について検討する。
具体的には、意味理解を必要とする5つのプロセスマイニングタスクを定義し、評価のための広範なベンチマークデータセットを提供する。
実験の結果, LLM はプロセスマイニングの難しさに苦しむ一方で, さまざまなプロセスタイプや産業にまたがるタスクを微調整することで, 高いパフォーマンスを実現していることがわかった。
関連論文リスト
- How do Large Language Models Understand Relevance? A Mechanistic Interpretability Perspective [64.00022624183781]
大規模言語モデル(LLM)は、関連性を評価し、情報検索(IR)タスクをサポートする。
メカニスティック・インタプリタビリティのレンズを用いて,異なるLLMモジュールが関係判断にどのように寄与するかを検討する。
論文 参考訳(メタデータ) (2025-04-10T16:14:55Z) - Measuring Emergent Capabilities of LLMs for Software Engineering: How Far Are We? [45.126233498200534]
ソフトウェア工学の文脈における能力の出現について検討する。
本稿では、バグ修正、コード翻訳、コミットメッセージ生成という3つのSEタスクでこの現象を評価するためのモデルに依存しないパイプラインを提案する。
我々の発見は、選択したタスクセットのモデルサイズをスケールすることによる創発的能力の概念を支持する証拠を提供していない。
論文 参考訳(メタデータ) (2024-11-26T22:48:55Z) - ProcBench: Benchmark for Multi-Step Reasoning and Following Procedure [0.0]
本稿では,多段階推論の直接評価という,推論能力の特定の側面に焦点を当てたベンチマークを提案する。
我々のデータセットは、明示的な指示とそれに対応する質問のペアで構成されており、質問の解決に必要な手順は、その指示の中で完全に詳細に記述されている。
各ステップで様々なステップの解決と応答評価を必要とする問題を構築することにより、最先端のLCMの指示に従う能力の徹底的な評価を可能にする。
論文 参考訳(メタデータ) (2024-10-04T03:21:24Z) - ProcessTBench: An LLM Plan Generation Dataset for Process Mining [0.0]
大規模言語モデル(LLM)は、計画生成において大きな可能性を示しています。
既存のデータセットは、高度なツール使用シナリオに必要な複雑さを欠いていることが多い。
本稿では,TaskBench データセットの拡張である ProcessTBench 合成データセットを提案する。
論文 参考訳(メタデータ) (2024-09-13T20:56:21Z) - Interpreting and Improving Large Language Models in Arithmetic Calculation [72.19753146621429]
大規模言語モデル(LLM)は、多くのアプリケーションにまたがる顕著な可能性を示している。
本研究では,LLMが計算を行う特定のメカニズムを明らかにする。
LLMの計算性能を高めるために、これらの必須ヘッド/MLPを選択的に微調整する潜在的な利点について検討する。
論文 参考訳(メタデータ) (2024-09-03T07:01:46Z) - Evaluating the Ability of LLMs to Solve Semantics-Aware Process Mining Tasks [3.9273545629281252]
大規模言語モデル(LLM)は、プロセスの振る舞いを理解することの恩恵を受けるプロセスマイニングタスクに取り組むために使用できる。
本稿では,LLMがプロセスマイニングタスクに対処する能力について検討する。
論文 参考訳(メタデータ) (2024-07-02T14:44:49Z) - C-ICL: Contrastive In-context Learning for Information Extraction [54.39470114243744]
c-ICLは、正しいサンプル構築と間違ったサンプル構築の両方を活用して、コンテキスト内学習のデモを作成する、新しい数ショット技術である。
各種データセットに対する実験により,c-ICLは従来の数発のインコンテキスト学習法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-02-17T11:28:08Z) - TaskBench: Benchmarking Large Language Models for Task Automation [82.2932794189585]
タスク自動化における大規模言語モデル(LLM)の機能を評価するためのフレームワークであるTaskBenchを紹介する。
具体的には、タスクの分解、ツールの選択、パラメータ予測を評価する。
提案手法は, 自動構築と厳密な人的検証を組み合わせることで, 人的評価との整合性を確保する。
論文 参考訳(メタデータ) (2023-11-30T18:02:44Z) - When does In-context Learning Fall Short and Why? A Study on
Specification-Heavy Tasks [54.71034943526973]
In-context Learning (ICL)は、大規模言語モデル(LLM)のデフォルトメソッドとなっている。
ICLは、複雑で広範囲なタスク仕様を持つタスクである、仕様の重いタスクを処理できないことが分かりました。
我々は、コンテキストを具体的に理解できないこと、タスクスキーマが人間と理解できないこと、長文理解が不十分であること、の3つの主な理由を識別する。
論文 参考訳(メタデータ) (2023-11-15T14:26:30Z) - Large Language Models can accomplish Business Process Management Tasks [0.0]
大規模言語モデル(LLM)がテキスト関連ビジネスプロセス管理タスクをどのように達成できるかを示す。
LLMは、テキスト記述からプロセスモデルを達成し、テキスト記述から宣言的プロセスモデルをマイニングし、ロボットプロセス自動化のためのテキスト記述からプロセスタスクの適合性を評価する。
論文 参考訳(メタデータ) (2023-07-19T11:54:46Z) - Distribution Matching for Heterogeneous Multi-Task Learning: a
Large-scale Face Study [75.42182503265056]
マルチタスク学習は、共有学習アルゴリズムによって複数のタスクを共同で学習する方法論として登場した。
我々は異種mtlに対処し,検出,分類,回帰問題を同時に解決する。
大規模な顔分析のための最初のフレームワークであるFaceBehaviorNetを構築し、すべての顔行動タスクを共同で学習する。
論文 参考訳(メタデータ) (2021-05-08T22:26:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。