論文の概要: Goal-Oriented Next Best Activity Recommendation using Reinforcement
Learning
- arxiv url: http://arxiv.org/abs/2205.03219v1
- Date: Fri, 6 May 2022 13:48:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-09 15:42:00.894848
- Title: Goal-Oriented Next Best Activity Recommendation using Reinforcement
Learning
- Title(参考訳): 強化学習を用いた目標指向次善活動推薦
- Authors: Prerna Agarwal, Avani Gupta, Renuka Sindhgatta, Sampath Dechu
- Abstract要約: 目標指向の次善行動推薦フレームワークを提案する。
ディープラーニングモデルは、そのアクティビティが与えられた次の最高のアクティビティと、目標の見積値を予測する。
強化学習法では,1つ以上の目標を達成する可能性のある推定値に基づいて,アクティビティのシーケンスを探索する。
- 参考スコア(独自算出の注目度): 4.128679340077271
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recommending a sequence of activities for an ongoing case requires that the
recommendations conform to the underlying business process and meet the
performance goal of either completion time or process outcome. Existing work on
next activity prediction can predict the future activity but cannot provide
guarantees of the prediction being conformant or meeting the goal. Hence, we
propose a goal-oriented next best activity recommendation. Our proposed
framework uses a deep learning model to predict the next best activity and an
estimated value of a goal given the activity. A reinforcement learning method
explores the sequence of activities based on the estimates likely to meet one
or more goals. We further address a real-world problem of multiple goals by
introducing an additional reward function to balance the outcome of a
recommended activity and satisfy the goal. We demonstrate the effectiveness of
the proposed method on four real-world datasets with different characteristics.
The results show that the recommendations from our proposed approach outperform
in goal satisfaction and conformance compared to the existing state-of-the-art
next best activity recommendation techniques.
- Abstract(参考訳): 進行中のケースで一連のアクティビティを推奨するには、推奨事項が基礎となるビジネスプロセスに準拠し、完了時間またはプロセス結果のパフォーマンス目標を満たさなければなりません。
次のアクティビティ予測に関する既存の作業は、将来のアクティビティを予測できるが、予測が適合しているか、目標を満たすことを保証できない。
そこで本研究では,ゴール指向の次善の行動推薦を提案する。
提案フレームワークは,学習モデルを用いて,次のベストアクティビティと,そのアクティビティが与えられた目標の見積値を予測する。
強化学習法は、1つ以上の目標を達成しそうな見積もりに基づいてアクティビティのシーケンスを探索する。
さらに,推奨活動の結果のバランスと目標達成のために,追加の報酬関数を導入することで,複数の目標の現実的な問題に対処する。
本稿では,異なる特性を持つ4つの実世界データセットに対する提案手法の有効性を示す。
その結果,提案手法の勧告は,既存の最先端の次の活動推奨手法と比較して,目標満足度や適合性に優れていた。
関連論文リスト
- Propose, Assess, Search: Harnessing LLMs for Goal-Oriented Planning in Instructional Videos [48.15438373870542]
VidAssistは、インストラクショナルビデオにおけるゼロ/フェーショット目標指向の計画のために設計された統合フレームワークである。
最適な計画生成のための幅優先探索アルゴリズムを採用している。
実験によると、VidAssistは異なる目標指向の計画設定のための統一されたフレームワークを提供する。
論文 参考訳(メタデータ) (2024-09-30T17:57:28Z) - From Recognition to Prediction: Leveraging Sequence Reasoning for Action Anticipation [30.161471749050833]
本稿では,ARR(Accence and Reasoning, 認識・推論)と呼ばれる注意機構を利用した新しいエンドツーエンドビデオモデリングアーキテクチャを提案する。
ARRは行動予測タスクを行動認識と推論タスクに分解し、次の行動予測(NAP)によって行動間の統計的関係を効果的に学習する。
さらに、広範囲なトレーニングデータを必要とする関係モデリングの課題に対処するために、デコーダの教師なし事前学習のための革新的なアプローチを提案する。
論文 参考訳(メタデータ) (2024-08-05T18:38:29Z) - Deep Pareto Reinforcement Learning for Multi-Objective Recommender Systems [60.91599969408029]
複数の目的を同時に最適化することは、レコメンデーションプラットフォームにとって重要なタスクです。
既存の多目的推薦システムは、そのような動的な関係を体系的に考慮していない。
論文 参考訳(メタデータ) (2024-07-04T02:19:49Z) - Code Models are Zero-shot Precondition Reasoners [83.8561159080672]
シーケンシャルな意思決定タスクのために、コード表現を使ってアクションの前提条件を推論します。
本稿では,政策によって予測される行動が前提条件と一致していることを保証する事前条件対応行動サンプリング戦略を提案する。
論文 参考訳(メタデータ) (2023-11-16T06:19:27Z) - Action Anticipation with Goal Consistency [19.170733994203367]
我々は,将来起こるであろう行動を予測するために,高レベルの意図情報を活用することを提案する。
提案手法の有効性を実証し,提案手法が2つの大規模データセットに対して最先端の結果が得られることを示す。
論文 参考訳(メタデータ) (2023-06-26T20:04:23Z) - Towards Out-of-Distribution Sequential Event Prediction: A Causal
Treatment [72.50906475214457]
シーケンシャルなイベント予測の目標は、一連の歴史的なイベントに基づいて次のイベントを見積もることである。
実際には、次のイベント予測モデルは、一度に収集されたシーケンシャルなデータで訓練される。
文脈固有の表現を学習するための階層的な分岐構造を持つフレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-24T07:54:13Z) - Learning to act: a Reinforcement Learning approach to recommend the best
next activities [4.511664266033014]
本稿では,過去の実行を観察する上で最適な政策である強化学習を用いて学習するアプローチについて検討する。
このアプローチの可能性は、実生活データから得られた2つのシナリオで実証されている。
論文 参考訳(メタデータ) (2022-03-29T09:43:39Z) - Learning to Plan Optimistically: Uncertainty-Guided Deep Exploration via
Latent Model Ensembles [73.15950858151594]
本稿では,不確実な長期報酬に直面した最適化による深層探査を可能にするLOVE(Latent Optimistic Value Exploration)を提案する。
潜在世界モデルと値関数推定を組み合わせ、無限水平リターンを予測し、アンサンブルにより関連する不確実性を回復する。
連続行動空間における視覚ロボット制御タスクにLOVEを適用し、最先端や他の探査目標と比較して、平均20%以上のサンプル効率の改善を実証する。
論文 参考訳(メタデータ) (2020-10-27T22:06:57Z) - Reward Maximisation through Discrete Active Inference [1.2074552857379273]
報酬の最大化に最適なアクションを、アクティブな推論エージェントがどのように、いつ実行するかを示す。
能動推論がベルマン方程式の最適解を生成する条件を示す。
我々は,この分析を,能動推論と強化学習のより広い関係に関する議論に付加する。
論文 参考訳(メタデータ) (2020-09-17T07:13:59Z) - Long-Term Anticipation of Activities with Cycle Consistency [90.79357258104417]
本稿では,観察されたフレームの特徴から直接将来の活動を予測し,エンドツーエンドで学習するフレームワークを提案する。
我々のフレームワークは、Breakfastデータセットと50Saladsという2つのデータセットで最先端の結果を達成する。
論文 参考訳(メタデータ) (2020-09-02T15:41:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。