論文の概要: LLMs that Understand Processes: Instruction-tuning for Semantics-Aware Process Mining
- arxiv url: http://arxiv.org/abs/2508.16270v1
- Date: Fri, 22 Aug 2025 10:13:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-25 16:42:36.349819
- Title: LLMs that Understand Processes: Instruction-tuning for Semantics-Aware Process Mining
- Title(参考訳): プロセスを理解するLLM: 意味論的プロセスマイニングのためのインストラクションチューニング
- Authors: Vira Pyrih, Adrian Rebmann, Han van der Aa,
- Abstract要約: セマンティクスを意識したプロセスマイニングは、プロセス内でどのような振る舞いを可能にするべきかに焦点を当てる。
大規模言語モデル(LLM)は意味論的タスクに対処するための強力な手段を提供する。
本稿では,意味論的プロセスマイニングのための命令チューニングの可能性について検討する。
- 参考スコア(独自算出の注目度): 1.3050391810942312
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Process mining is increasingly using textual information associated with events to tackle tasks such as anomaly detection and process discovery. Such semantics-aware process mining focuses on what behavior should be possible in a process (i.e., expectations), thus providing an important complement to traditional, frequency-based techniques that focus on recorded behavior (i.e., reality). Large Language Models (LLMs) provide a powerful means for tackling semantics-aware tasks. However, the best performance is so far achieved through task-specific fine-tuning, which is computationally intensive and results in models that can only handle one specific task. To overcome this lack of generalization, we use this paper to investigate the potential of instruction-tuning for semantics-aware process mining. The idea of instruction-tuning here is to expose an LLM to prompt-answer pairs for different tasks, e.g., anomaly detection and next-activity prediction, making it more familiar with process mining, thus allowing it to also perform better at unseen tasks, such as process discovery. Our findings demonstrate a varied impact of instruction-tuning: while performance considerably improved on process discovery and prediction tasks, it varies across models on anomaly detection tasks, highlighting that the selection of tasks for instruction-tuning is critical to achieving desired outcomes.
- Abstract(参考訳): プロセスマイニングは、異常検出やプロセス発見といったタスクに取り組むために、イベントに関連するテキスト情報の利用が増えている。
このようなセマンティクスを意識したプロセスマイニングは、プロセス(すなわち期待)で何ができるかに焦点を当て、記録された振る舞い(すなわち現実)に焦点を当てる伝統的な周波数ベースの技術に重要な補完を提供する。
大規模言語モデル(LLM)は意味論的タスクに対処するための強力な手段を提供する。
しかし、今のところ最高のパフォーマンスはタスク固有の微調整によって達成されており、これは計算集約的であり、1つの特定のタスクしか処理できないモデルになる。
この一般化の欠如を克服するため,本論文では,意味論的プロセスマイニングのための命令チューニングの可能性について検討する。
ここでのインストラクションチューニングの考え方は、例えば異常検出や次のアクティビティ予測など、さまざまなタスクに対してLLMをプロンプト・アンサー・ペアに公開することで、プロセスマイニングに親しみやすくすることで、プロセス発見のような見当たらないタスクでもより良く実行できるようにすることである。
プロセス発見および予測タスクの性能は, 異常検出タスクのモデルによって大きく改善されているが, 課題選択が望ましい結果を達成する上で重要であることを強調した。
関連論文リスト
- On the Potential of Large Language Models to Solve Semantics-Aware Process Mining Tasks [3.9273545629281252]
大規模言語モデル(LLM)は、プロセスマイニングタスクに対処するための貴重なツールであることが示されている。
本稿では,意味論的プロセスマイニングタスクにおけるLLMの機能について,体系的に検討する。
セマンティック理解を必要とする5つのプロセスマイニングタスクを定義し、評価のための広範なベンチマークデータセットを提供する。
論文 参考訳(メタデータ) (2025-04-29T17:52:28Z) - Layer-Aware Task Arithmetic: Disentangling Task-Specific and Instruction-Following Knowledge [12.367471198090655]
Task Arithmetic (TA)は、微調整から派生したタスクベクトルを組み合わせることで、マルチタスク学習とタスク忘れを可能にするが、一般的な指示追従行動からタスク固有の知識を分離するのに苦労する。
本稿では,命令フォローやタスク固有のコンポーネントとのアライメントに基づいて,階層固有の重みをタスクベクトルに割り当てる新しい手法であるLayer-Aware Task Arithmetic (LATA)を提案する。
論文 参考訳(メタデータ) (2025-02-27T15:22:14Z) - Learning Task Representations from In-Context Learning [73.72066284711462]
大規模言語モデル(LLM)は、文脈内学習において顕著な習熟性を示している。
ICLプロンプトにおけるタスク情報をアテンションヘッドの関数として符号化するための自動定式化を導入する。
提案手法の有効性は,最後の隠れ状態の分布と最適に実行されたテキスト内学習モデルとの整合性に起因していることを示す。
論文 参考訳(メタデータ) (2025-02-08T00:16:44Z) - Evaluating the Ability of LLMs to Solve Semantics-Aware Process Mining Tasks [3.9273545629281252]
大規模言語モデル(LLM)は、プロセスの振る舞いを理解することの恩恵を受けるプロセスマイニングタスクに取り組むために使用できる。
本稿では,LLMがプロセスマイニングタスクに対処する能力について検討する。
論文 参考訳(メタデータ) (2024-07-02T14:44:49Z) - Instruction Matters: A Simple yet Effective Task Selection for Optimized Instruction Tuning of Specific Tasks [51.15473776489712]
本稿では,命令情報のみを利用してタスクを識別する,シンプルで効果的なタスク選択手法を提案する。
提案手法は,タスク間のペア転送可能性の複雑な測定や,対象タスクのためのデータサンプルの作成を必要とする従来の手法に比べて,はるかに効率的である。
実験の結果、命令のみに選択されたタスクセットのトレーニングにより、P3、Big-Bench、NIV2、Big-Bench Hardといったベンチマークのパフォーマンスが大幅に改善された。
論文 参考訳(メタデータ) (2024-04-25T08:49:47Z) - Data-CUBE: Data Curriculum for Instruction-based Sentence Representation
Learning [85.66907881270785]
本稿では,学習用マルチタスクデータの順序を列挙するデータカリキュラム,すなわちData-CUBEを提案する。
タスクレベルでは、タスク間の干渉リスクを最小化するために最適なタスクオーダーを見つけることを目的としている。
インスタンスレベルでは、タスク毎のすべてのインスタンスの難易度を測定し、トレーニングのためにそれらを簡単に微分できるミニバッチに分割します。
論文 参考訳(メタデータ) (2024-01-07T18:12:20Z) - Active Instruction Tuning: Improving Cross-Task Generalization by
Training on Prompt Sensitive Tasks [101.40633115037983]
インストラクションチューニング(IT)は,大規模言語モデル(LLM)を命令付き多種多様なタスクで訓練することにより,印象的なゼロショット一般化を実現する。
ITモデルの性能と一般化性を改善するために、新しいタスクをどのように選択するかは、未解決の問題である。
本稿では,情報的タスクを識別する新しいフレームワークである即時不確実性に基づくアクティブな指導チューニングを提案し,選択したタスク上でモデルをアクティブにチューニングする。
論文 参考訳(メタデータ) (2023-11-01T04:40:05Z) - Pre-training Multi-task Contrastive Learning Models for Scientific
Literature Understanding [52.723297744257536]
事前学習言語モデル(LM)は、科学文献理解タスクにおいて有効であることを示す。
文献理解タスク間の共通知識共有を容易にするために,マルチタスクのコントラスト学習フレームワークであるSciMultを提案する。
論文 参考訳(メタデータ) (2023-05-23T16:47:22Z) - Distribution Matching for Heterogeneous Multi-Task Learning: a
Large-scale Face Study [75.42182503265056]
マルチタスク学習は、共有学習アルゴリズムによって複数のタスクを共同で学習する方法論として登場した。
我々は異種mtlに対処し,検出,分類,回帰問題を同時に解決する。
大規模な顔分析のための最初のフレームワークであるFaceBehaviorNetを構築し、すべての顔行動タスクを共同で学習する。
論文 参考訳(メタデータ) (2021-05-08T22:26:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。