論文の概要: Generic Itemset Mining Based on Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2105.07753v1
- Date: Mon, 17 May 2021 11:57:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-18 14:24:43.378081
- Title: Generic Itemset Mining Based on Reinforcement Learning
- Title(参考訳): 強化学習に基づく汎用アイテムセットマイニング
- Authors: Kazuma Fujioka and Kimiaki Shirahama
- Abstract要約: 強化学習に基づくジェネリックアイテムセットマイニングは、任意の種類のアイテムセットを抽出するエージェントを訓練するための統一されたフレームワークを提供する。
GIM-RLでは、データセットから対象のアイテムセットを抽出する反復的なステップを定式化する。
- 参考スコア(独自算出の注目度): 4.106823022855067
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One of the biggest problems in itemset mining is the requirement of
developing a data structure or algorithm, every time a user wants to extract a
different type of itemsets. To overcome this, we propose a method, called
Generic Itemset Mining based on Reinforcement Learning (GIM-RL), that offers a
unified framework to train an agent for extracting any type of itemsets. In
GIM-RL, the environment formulates iterative steps of extracting a target type
of itemsets from a dataset. At each step, an agent performs an action to add or
remove an item to or from the current itemset, and then obtains from the
environment a reward that represents how relevant the itemset resulting from
the action is to the target type. Through numerous trial-and-error steps where
various rewards are obtained by diverse actions, the agent is trained to
maximise cumulative rewards so that it acquires the optimal action policy for
forming as many itemsets of the target type as possible. In this framework, an
agent for extracting any type of itemsets can be trained as long as a reward
suitable for the type can be defined. The extensive experiments on mining high
utility itemsets, frequent itemsets and association rules show the general
effectiveness and one remarkable potential (agent transfer) of GIM-RL. We hope
that GIM-RL opens a new research direction towards learning-based itemset
mining.
- Abstract(参考訳): アイテムセットマイニングの最大の問題は、ユーザが異なるタイプのアイテムセットを抽出するたびに、データ構造やアルゴリズムを開発する必要があることである。
これを解決するために,強化学習(GIM-RL)に基づくジェネリックアイテムセットマイニング(Generic Itemset Mining)と呼ばれる手法を提案する。
GIM-RLでは、データセットから対象のアイテムセットを抽出する反復的なステップを定式化する。
各ステップにおいて、エージェントは、現在のアイテムセットにアイテムを追加または削除するアクションを実行し、そのアクションから生じるアイテムセットがターゲットタイプにどの程度関連しているかを表す報酬を環境から取得する。
様々なアクションによって様々な報酬が得られている数多くの試行錯誤のステップを通じて、エージェントは累積報酬を最大化するように訓練され、できるだけ多くのターゲットタイプのアイテムセットを形成するための最適なアクションポリシーを取得する。
このフレームワークでは、任意の種類のアイテムセットを抽出するエージェントを、そのタイプに適した報酬を定義できる限りトレーニングすることができる。
高ユーティリティアイテムセットのマイニング、頻繁なアイテムセット、および関連ルールに関する広範な実験は、GIM-RLの一般的な効果と1つの顕著な可能性(エージェント転送)を示している。
gim-rlが学習に基づくアイテムセットマイニングへの新たな研究方向を開くことを願っている。
関連論文リスト
- Reinforcement Learning with Action Sequence for Data-Efficient Robot Learning [62.3886343725955]
本稿では,行動列上のQ値を出力する批判ネットワークを学習する新しいRLアルゴリズムを提案する。
提案アルゴリズムは,現在および将来の一連の行動の実行結果を学習するために値関数を明示的に訓練することにより,ノイズのある軌道から有用な値関数を学習することができる。
論文 参考訳(メタデータ) (2024-11-19T01:23:52Z) - Bridging Search and Recommendation in Generative Retrieval: Does One Task Help the Other? [9.215695600542249]
検索とレコメンデーションのための生成的検索は、アイテムを検索する上で有望なパラダイムである。
これらの生成システムは、様々な情報検索タスクを単一のモデルにまとめる上で重要な役割を果たす。
本稿では,このような統合されたアプローチが,IRタスクの検索・推薦においてタスク固有モデルより優れているかどうかを考察する。
論文 参考訳(メタデータ) (2024-10-22T08:49:43Z) - Learning to Rank for Multiple Retrieval-Augmented Models through Iterative Utility Maximization [21.115495457454365]
本稿では,複数検索拡張世代(RAG)エージェントを対象とした統合検索エンジンの設計について検討する。
本稿では,これらのRAGエージェントの検索結果を検索エンジンが生成し,オフラインで検索した文書の品質に関するフィードバックを収集する反復的手法を提案する。
我々は、このアプローチをオンライン環境に適応させ、リアルタイムな個別エージェントのフィードバックに基づいて、検索エンジンがその振る舞いを洗練できるようにする。
論文 参考訳(メタデータ) (2024-10-13T17:53:50Z) - OCALM: Object-Centric Assessment with Language Models [33.10137796492542]
本稿では,言語モデルを用いたオブジェクト指向アセスメント(OCALM)を提案し,強化学習エージェントに対して本質的に解釈可能な報酬関数を導出する。
OCALMは、リレーショナルな概念に焦点を当てた報酬関数を導出するために、言語モデルの広範な世界知識を使用する。
論文 参考訳(メタデータ) (2024-06-24T15:57:48Z) - Language-aware Multiple Datasets Detection Pretraining for DETRs [4.939595148195813]
本稿では,METR と呼ばれる DETR 型検出器の事前学習に複数のデータセットを利用するためのフレームワークを提案する。
事前訓練された言語モデルを導入することにより、オブジェクト検出の典型的なマルチクラス化をバイナリ分類に変換する。
マルチタスク・ジョイントトレーニングとプレトレイン・ファネチューン・パラダイムのいずれにおいても,METRは異常な結果が得られることを示す。
論文 参考訳(メタデータ) (2023-04-07T10:34:04Z) - Multi-agent Deep Covering Skill Discovery [50.812414209206054]
本稿では,複数エージェントの結合状態空間の予測被覆時間を最小化し,マルチエージェントオプションを構築するマルチエージェントDeep Covering Option Discoveryを提案する。
また、MARLプロセスにマルチエージェントオプションを採用するための新しいフレームワークを提案する。
提案アルゴリズムは,アテンション機構とエージェントの相互作用を効果的に把握し,マルチエージェントオプションの同定に成功した。
論文 参考訳(メタデータ) (2022-10-07T00:40:59Z) - Enhanced Meta Reinforcement Learning using Demonstrations in Sparse
Reward Environments [10.360491332190433]
Demonstrations を用いた Enhanced Meta-RL というアルゴリズムのクラスを開発する。
本稿では、EMRLDがRLと教師付き学習をオフラインデータ上で併用してメタポリティクスを生成する方法を示す。
また,EMRLDアルゴリズムは,様々なスパース報酬環境における既存手法よりも有意に優れていることを示す。
論文 参考訳(メタデータ) (2022-09-26T22:01:12Z) - LDSA: Learning Dynamic Subtask Assignment in Cooperative Multi-Agent
Reinforcement Learning [122.47938710284784]
協調型MARLにおける動的サブタスク代入(LDSA)を学習するための新しいフレームワークを提案する。
エージェントを異なるサブタスクに合理的に割り当てるために,能力に基づくサブタスク選択戦略を提案する。
LDSAは、より優れたコラボレーションのために、合理的で効果的なサブタスクの割り当てを学習していることを示す。
論文 参考訳(メタデータ) (2022-05-05T10:46:16Z) - Discovery-and-Selection: Towards Optimal Multiple Instance Learning for
Weakly Supervised Object Detection [86.86602297364826]
複数インスタンス学習(DS-MIL)と融合した発見・選択手法を提案する。
我々の提案するDS-MILアプローチは,最先端の性能を報告しながら,ベースラインを一貫して改善することができる。
論文 参考訳(メタデータ) (2021-10-18T07:06:57Z) - Information Directed Reward Learning for Reinforcement Learning [64.33774245655401]
我々は、標準rlアルゴリズムが可能な限り少数の専門家クエリで高い期待値を達成することができる報酬関数のモデルを学ぶ。
特定のタイプのクエリ用に設計された以前のアクティブな報酬学習方法とは対照的に、IDRLは自然に異なるクエリタイプに対応します。
我々は,複数の環境における広範囲な評価と,異なるタイプのクエリでこの結果を支持する。
論文 参考訳(メタデータ) (2021-02-24T18:46:42Z) - Randomized Entity-wise Factorization for Multi-Agent Reinforcement
Learning [59.62721526353915]
実世界のマルチエージェント設定は、エージェントや非エージェントエンティティのタイプや量が異なるタスクを伴うことが多い。
我々の方法は、これらの共通点を活用することを目的としており、「観察対象のランダムに選択されたサブグループのみを考えるとき、各エージェントが期待する効用は何か?」という問いを投げかける。
論文 参考訳(メタデータ) (2020-06-07T18:28:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。