論文の概要: Lost in Models? Structuring Managerial Decision Support in Process Mining with Multi-criteria Decision Making
- arxiv url: http://arxiv.org/abs/2505.10236v1
- Date: Thu, 15 May 2025 12:49:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-16 22:29:06.314494
- Title: Lost in Models? Structuring Managerial Decision Support in Process Mining with Multi-criteria Decision Making
- Title(参考訳): モデルにおける損失 : 多基準意思決定によるプロセスマイニングにおける管理的意思決定支援の構築
- Authors: Rob H. Bemthuis,
- Abstract要約: 本稿では、プロセスモデルの評価と優先順位付けのためのマルチ基準意思決定(MCDM)アプローチについて検討する。
最初の洞察は、MCDMアプローチが文脈に敏感な意思決定を促進することを示唆している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Process mining is increasingly adopted in modern organizations, producing numerous process models that, while valuable, can lead to model overload and decision-making complexity. This paper explores a multi-criteria decision-making (MCDM) approach to evaluate and prioritize process models by incorporating both quantitative metrics (e.g., fitness, precision) and qualitative factors (e.g., cultural fit). An illustrative logistics example demonstrates how MCDM, specifically the Analytic Hierarchy Process (AHP), facilitates trade-off analysis and promotes alignment with managerial objectives. Initial insights suggest that the MCDM approach enhances context-sensitive decision-making, as selected models address both operational metrics and broader managerial needs. While this study is an early-stage exploration, it provides an initial foundation for deeper exploration of MCDM-driven strategies to enhance the role of process mining in complex organizational settings.
- Abstract(参考訳): プロセスマイニングは、現代組織ではますます採用され、多くのプロセスモデルが作成され、価値はあるものの、過負荷や意思決定の複雑さのモデルに繋がる可能性がある。
本稿では, 定量的指標(例えば, 適合性, 精度)と質的要因(例えば, 文化的適合性)の両方を組み込むことで, プロセスモデルの評価と優先順位付けを行う, マルチ基準意思決定(MCDM)アプローチについて検討する。
図解的な物流の例は、MCDM、特にAHP(Analytic Hierarchy Process)がトレードオフ分析を促進し、管理目的との整合を促進する方法を示している。
最初の洞察は、MCDMアプローチが運用メトリクスとより広範な管理ニーズの両方に対処するため、コンテキストに敏感な意思決定を促進することを示唆している。
この研究は初期段階の探査であるが、複雑な組織環境におけるプロセスマイニングの役割を高めるため、MCDM主導の戦略を深く探求する基盤となる。
関連論文リスト
- A Survey of Frontiers in LLM Reasoning: Inference Scaling, Learning to Reason, and Agentic Systems [93.8285345915925]
推論(Reasoning)は、論理的推論、問題解決、意思決定を可能にする基本的な認知プロセスである。
大規模言語モデル(LLM)の急速な進歩により、推論は高度なAIシステムを区別する重要な能力として浮上した。
我々は,(1)推論が達成される段階を定義するレジーム,(2)推論プロセスに関与するコンポーネントを決定するアーキテクチャの2つの側面に沿って既存の手法を分類する。
論文 参考訳(メタデータ) (2025-04-12T01:27:49Z) - The Lessons of Developing Process Reward Models in Mathematical Reasoning [62.165534879284735]
Process Reward Models (PRM) は、推論プロセスにおける中間エラーを特定し、緩和することを目的としている。
我々は,モンテカルロ (MC) 推定とLarge Language Models (LLM) を効果的に統合するコンセンサスフィルタリング機構を開発した。
私たちは、既存のオープンソース代替品よりも優れた、最先端のPRMを新たにリリースしています。
論文 参考訳(メタデータ) (2025-01-13T13:10:16Z) - A Systematic Review of Business Process Improvement: Achievements and Potentials in Combining Concepts from Operations Research and Business Process Management [0.0]
ビジネスプロセスマネジメントと運用リサーチは、組織における価値創造を強化することを目的としています。
この体系的な文献レビューは、両方の分野から組み合わせた概念を用いた作品を特定し分析する。
その結果,資源配分とスケジューリングの問題に強い焦点が当てられている。
論文 参考訳(メタデータ) (2024-09-02T14:13:14Z) - MR-Ben: A Meta-Reasoning Benchmark for Evaluating System-2 Thinking in LLMs [55.20845457594977]
大規模言語モデル(LLM)は、問題解決と意思決定の能力の向上を示している。
本稿ではメタ推論技術を必要とするプロセスベースのベンチマークMR-Benを提案する。
メタ推論のパラダイムは,システム2のスロー思考に特に適しています。
論文 参考訳(メタデータ) (2024-06-20T03:50:23Z) - Constrained Reinforcement Learning with Average Reward Objective: Model-Based and Model-Free Algorithms [34.593772931446125]
モノグラフは、平均報酬決定過程(MDPs)の文脈内で制約された様々なモデルベースおよびモデルフリーアプローチの探索に焦点を当てている
このアルゴリズムは制約付きMDPの解法として検討されている。
論文 参考訳(メタデータ) (2024-06-17T12:46:02Z) - Process Modeling With Large Language Models [42.0652924091318]
本稿では,大規模言語モデル(LLM)のプロセスモデリングへの統合について検討する。
プロセスモデルの自動生成と反復的改善にLLMを利用するフレームワークを提案する。
予備的な結果は、プロセスモデリングタスクを合理化するフレームワークの能力を示している。
論文 参考訳(メタデータ) (2024-03-12T11:27:47Z) - A Thorough Examination of Decoding Methods in the Era of LLMs [72.65956436513241]
復号法は、次世代の予測器から実用的なタスク解決器に言語モデルを変換する上で、必須の役割を果たす。
本稿では,大規模言語モデルの文脈における様々な復号法を包括的かつ多面的に分析する。
その結果,復号法の性能は特にタスク依存的であり,アライメント,モデルサイズ,量子化などの要因に影響されていることが明らかとなった。
論文 参考訳(メタデータ) (2024-02-10T11:14:53Z) - Let's reward step by step: Step-Level reward model as the Navigators for
Reasoning [64.27898739929734]
Process-Supervised Reward Model (PRM)は、トレーニングフェーズ中にステップバイステップのフィードバックをLLMに提供する。
LLMの探索経路を最適化するために,PRMからのステップレベルのフィードバックを応用した欲求探索アルゴリズムを提案する。
提案手法の汎用性を探るため,コーディングタスクのステップレベル報酬データセットを自動生成する手法を開発し,コード生成タスクにおける同様の性能向上を観察する。
論文 参考訳(メタデータ) (2023-10-16T05:21:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。