論文の概要: Agentic Business Process Management: Practitioner Perspectives on Agent Governance in Business Processes
- arxiv url: http://arxiv.org/abs/2504.03693v2
- Date: Thu, 03 Jul 2025 17:43:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-04 15:37:13.986892
- Title: Agentic Business Process Management: Practitioner Perspectives on Agent Governance in Business Processes
- Title(参考訳): エージェントビジネスプロセスマネジメント: ビジネスプロセスにおけるエージェントガバナンスの実践者視点
- Authors: Hoang Vu, Nataliia Klievtsova, Henrik Leopold, Stefanie Rinderle-Ma, Timotheus Kampik,
- Abstract要約: 生成AIの台頭に伴い、ソフトウェアエージェントへの産業的関心が高まりつつある。
本稿では,組織がAIエージェントを効果的に管理する方法を検討する。
AIエージェントの採用に責任を負う6つの重要な推奨事項を概説している。
- 参考スコア(独自算出の注目度): 0.7270112855088837
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the rise of generative AI, industry interest in software agents is growing. Given the stochastic nature of generative AI-based agents, their effective and safe deployment in organizations requires robust governance, which can be facilitated by agentic business process management. However, given the nascence of this new-generation agent notion, it is not clear what BPM practitioners consider to be an agent, and what benefits, risks and governance challenges they associate with agent deployments. To investigate how organizations can effectively govern AI agents, we conducted a qualitative study involving semi-structured interviews with 22 BPM practitioners from diverse industries. They anticipate that agents will enhance efficiency, improve data quality, ensure better compliance, and boost scalability through automation, while also cautioning against risks such as bias, over-reliance, cybersecurity threats, job displacement, and ambiguous decision-making. To address these challenges, the study presents six key recommendations for the responsible adoption of AI agents: define clear business goals, set legal and ethical guardrails, establish human-agent collaboration, customize agent behavior, manage risks, and ensure safe integration with fallback options. Additionally, the paper outlines actions to align traditional BPM with agentic AI, including balancing human and agent roles, redefining human involvement, adapting process structures, and introducing performance metrics. These insights provide a practical foundation for integrating AI agents into business processes while preserving oversight, flexibility, and trust.
- Abstract(参考訳): 生成AIの台頭に伴い、ソフトウェアエージェントへの産業的関心が高まりつつある。
生成AIベースのエージェントの確率的な性質を考えると、組織への効果的で安全なデプロイメントには堅牢なガバナンスが必要です。
しかし、この新世代のエージェント概念の欠如を考えると、BPM実践者がエージェントとみなすものは何か、エージェントのデプロイメントに関連する利点、リスク、ガバナンスの課題は明らかではない。
組織がAIエージェントを効果的に管理する方法を検討するため、さまざまな産業の22人のBPM実践者との半構造化インタビューを含む質的研究を行った。
彼らはエージェントが効率の向上、データ品質の向上、コンプライアンスの向上、自動化によるスケーラビリティの向上、バイアスや過度な信頼性、サイバーセキュリティの脅威、仕事のずれ、曖昧な意思決定といったリスクへの警告を期待している。
明確なビジネス目標を定義し、法的および倫理的なガードレールを設定し、人間とエージェントのコラボレーションを確立し、エージェントの振る舞いをカスタマイズし、リスクを管理し、フォールバックオプションとの安全な統合を保証する。
さらに、従来のBPMとエージェントAIとの整合性、人間とエージェントの役割のバランス、人間の関与の再定義、プロセス構造への適応、パフォーマンスメトリクスの導入などについて概説する。
これらの洞察は、監視、柔軟性、信頼を維持しながら、AIエージェントをビジネスプロセスに統合するための実践的な基盤を提供する。
関連論文リスト
- A Desideratum for Conversational Agents: Capabilities, Challenges, and Future Directions [51.96890647837277]
大規模言語モデル(LLM)は、従来の対話システムから、自律的な行動、文脈認識、ユーザとのマルチターンインタラクションが可能な高度なエージェントへと、会話AIを推進してきた。
本調査では,人間レベルの知性にアプローチするよりスケーラブルなシステムにおいて,何が達成されたのか,どのような課題が持続するのか,何を行う必要があるのか,といった,次世代の会話エージェントのデシラトゥムを提示する。
論文 参考訳(メタデータ) (2025-04-07T21:01:25Z) - Agentic Knowledgeable Self-awareness [79.25908923383776]
KnowSelfはデータ中心のアプローチで、人間のような知識のある自己認識を持つエージェントを応用する。
我々の実験により、KnowSelfは、外部知識を最小限に使用して、様々なタスクやモデルにおいて、様々な強力なベースラインを達成できることが実証された。
論文 参考訳(メタデータ) (2025-04-04T16:03:38Z) - Inherent and emergent liability issues in LLM-based agentic systems: a principal-agent perspective [0.0]
大規模言語モデル(LLM)を利用したエージェントシステムは、徐々に複雑になり、能力も向上している。
エージェントの増加とデプロイメント環境の拡大は,効果的なガバナンスポリシや監視,コントロールプロトコルに対する関心の高まりを招いている。
我々は, LLMエージェントとその拡張システムの委譲利用から生じる潜在的な責任問題について, 主エージェントの観点から分析する。
論文 参考訳(メタデータ) (2025-04-04T08:10:02Z) - Media and responsible AI governance: a game-theoretic and LLM analysis [61.132523071109354]
本稿では,信頼できるAIシステムを育成する上での,AI開発者,規制当局,ユーザ,メディア間の相互作用について検討する。
進化的ゲーム理論と大言語モデル(LLM)を用いて、異なる規制体制下でこれらのアクター間の戦略的相互作用をモデル化する。
論文 参考訳(メタデータ) (2025-03-12T21:39:38Z) - Human Decision-making is Susceptible to AI-driven Manipulation [87.24007555151452]
AIシステムは、ユーザの認知バイアスと感情的な脆弱性を利用して、有害な結果に向けてそれらを操縦する。
本研究では、経済的・感情的な意思決定の文脈におけるこのような操作に対する人間の感受性について検討した。
論文 参考訳(メタデータ) (2025-02-11T15:56:22Z) - AgentOps: Enabling Observability of LLM Agents [12.49728300301026]
大規模言語モデル(LLM)エージェントは、自律的で非決定論的行動のため、AI安全性に重大な懸念を提起する。
本稿では,エージェントのライフサイクル全体を通じて追跡されるべきアーティファクトと関連するデータを特定し,効果的な観測可能性を実現するための,AgentOpsの包括的な分類法を提案する。
私たちの分類は、監視、ロギング、分析をサポートするAgentOpsインフラストラクチャを設計、実装するためのリファレンステンプレートとして機能します。
論文 参考訳(メタデータ) (2024-11-08T02:31:03Z) - Proactive Agent: Shifting LLM Agents from Reactive Responses to Active Assistance [95.03771007780976]
我々は、人間の指示なしにタスクを予測および開始できるプロアクティブエージェントを開発するという課題に取り組む。
まず,実世界の人的活動を収集し,前向きなタスク予測を生成する。
これらの予測は、ヒトのアノテータによって受け入れられるか拒否されるかのどちらかとしてラベル付けされる。
ラベル付きデータは、人間の判断をシミュレートする報酬モデルをトレーニングするために使用される。
論文 参考訳(メタデータ) (2024-10-16T08:24:09Z) - Visibility into AI Agents [9.067567737098594]
AIエージェントに対する商業的、科学的、政府的、個人的活動の委譲の増加は、既存の社会的リスクを悪化させる可能性がある。
エージェント識別子,リアルタイム監視,アクティビティログという,AIエージェントの視認性を高めるための3つの尺度を評価した。
論文 参考訳(メタデータ) (2024-01-23T23:18:33Z) - Inverse Online Learning: Understanding Non-Stationary and Reactionary
Policies [79.60322329952453]
エージェントが意思決定を行う方法の解釈可能な表現を開発する方法を示す。
一連の軌跡に基づく意思決定プロセスを理解することにより,このオンライン学習問題に対して,政策推論問題を逆問題とみなした。
本稿では、エージェントがそれらを更新するプロセスと並行して、その影響を遡及的に推定する実用的なアルゴリズムを提案する。
UNOSの臓器提供受諾決定の分析に応用することで、我々のアプローチは意思決定プロセスを管理する要因や時間とともにどのように変化するかに、貴重な洞察をもたらすことができることを実証する。
論文 参考訳(メタデータ) (2022-03-14T17:40:42Z) - Building Affordance Relations for Robotic Agents - A Review [7.50722199393581]
Affordancesは、エージェントがオブジェクトでアクションを実行する可能性を記述する。
我々は,ロボット作業における余裕の概念を用いて,さまざまな戦略の共通基盤をレビューし,発見する。
AIエージェントの能力を向上させる可能性を秘めたアプライアンスを含むさまざまな興味深い研究方向を特定し、議論します。
論文 参考訳(メタデータ) (2021-05-14T08:35:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。