論文の概要: Generic Itemset Mining Based on Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2105.07753v1
- Date: Mon, 17 May 2021 11:57:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-18 14:24:43.378081
- Title: Generic Itemset Mining Based on Reinforcement Learning
- Title(参考訳): 強化学習に基づく汎用アイテムセットマイニング
- Authors: Kazuma Fujioka and Kimiaki Shirahama
- Abstract要約: 強化学習に基づくジェネリックアイテムセットマイニングは、任意の種類のアイテムセットを抽出するエージェントを訓練するための統一されたフレームワークを提供する。
GIM-RLでは、データセットから対象のアイテムセットを抽出する反復的なステップを定式化する。
- 参考スコア(独自算出の注目度): 4.106823022855067
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One of the biggest problems in itemset mining is the requirement of
developing a data structure or algorithm, every time a user wants to extract a
different type of itemsets. To overcome this, we propose a method, called
Generic Itemset Mining based on Reinforcement Learning (GIM-RL), that offers a
unified framework to train an agent for extracting any type of itemsets. In
GIM-RL, the environment formulates iterative steps of extracting a target type
of itemsets from a dataset. At each step, an agent performs an action to add or
remove an item to or from the current itemset, and then obtains from the
environment a reward that represents how relevant the itemset resulting from
the action is to the target type. Through numerous trial-and-error steps where
various rewards are obtained by diverse actions, the agent is trained to
maximise cumulative rewards so that it acquires the optimal action policy for
forming as many itemsets of the target type as possible. In this framework, an
agent for extracting any type of itemsets can be trained as long as a reward
suitable for the type can be defined. The extensive experiments on mining high
utility itemsets, frequent itemsets and association rules show the general
effectiveness and one remarkable potential (agent transfer) of GIM-RL. We hope
that GIM-RL opens a new research direction towards learning-based itemset
mining.
- Abstract(参考訳): アイテムセットマイニングの最大の問題は、ユーザが異なるタイプのアイテムセットを抽出するたびに、データ構造やアルゴリズムを開発する必要があることである。
これを解決するために,強化学習(GIM-RL)に基づくジェネリックアイテムセットマイニング(Generic Itemset Mining)と呼ばれる手法を提案する。
GIM-RLでは、データセットから対象のアイテムセットを抽出する反復的なステップを定式化する。
各ステップにおいて、エージェントは、現在のアイテムセットにアイテムを追加または削除するアクションを実行し、そのアクションから生じるアイテムセットがターゲットタイプにどの程度関連しているかを表す報酬を環境から取得する。
様々なアクションによって様々な報酬が得られている数多くの試行錯誤のステップを通じて、エージェントは累積報酬を最大化するように訓練され、できるだけ多くのターゲットタイプのアイテムセットを形成するための最適なアクションポリシーを取得する。
このフレームワークでは、任意の種類のアイテムセットを抽出するエージェントを、そのタイプに適した報酬を定義できる限りトレーニングすることができる。
高ユーティリティアイテムセットのマイニング、頻繁なアイテムセット、および関連ルールに関する広範な実験は、GIM-RLの一般的な効果と1つの顕著な可能性(エージェント転送)を示している。
gim-rlが学習に基づくアイテムセットマイニングへの新たな研究方向を開くことを願っている。
関連論文リスト
- Reinforcement Learning from Bagged Reward: A Transformer-based Approach
for Instance-Level Reward Redistribution [48.92144929307152]
強化学習(RL)では、エージェントの動作毎に即時報奨信号を生成する。
多くの実世界のアプリケーションでは、即時報酬信号はエージェントによって取得できない。
本稿では,各バッグ内の文脈ニュアンスと時間的依存関係を自己認識機構を用いて解釈するトランスフォーマーベースの報酬モデルReward Bag Transformer (RBT)を提案する。
論文 参考訳(メタデータ) (2024-02-06T07:26:44Z) - ControlRetriever: Harnessing the Power of Instructions for Controllable
Retrieval [53.06863641229893]
本稿では,多種多様な検索タスクを直接実行する高密度検索モデルを制御する制御レトリバーについて紹介する。
ControlRetrieverは、タスク固有の命令でガイドされている間、新しい制御可能な検索能力で異なる検索モデルに報いる。
論文 参考訳(メタデータ) (2023-08-19T14:17:57Z) - Language-aware Multiple Datasets Detection Pretraining for DETRs [4.939595148195813]
本稿では,METR と呼ばれる DETR 型検出器の事前学習に複数のデータセットを利用するためのフレームワークを提案する。
事前訓練された言語モデルを導入することにより、オブジェクト検出の典型的なマルチクラス化をバイナリ分類に変換する。
マルチタスク・ジョイントトレーニングとプレトレイン・ファネチューン・パラダイムのいずれにおいても,METRは異常な結果が得られることを示す。
論文 参考訳(メタデータ) (2023-04-07T10:34:04Z) - Multi-agent Deep Covering Skill Discovery [50.812414209206054]
本稿では,複数エージェントの結合状態空間の予測被覆時間を最小化し,マルチエージェントオプションを構築するマルチエージェントDeep Covering Option Discoveryを提案する。
また、MARLプロセスにマルチエージェントオプションを採用するための新しいフレームワークを提案する。
提案アルゴリズムは,アテンション機構とエージェントの相互作用を効果的に把握し,マルチエージェントオプションの同定に成功した。
論文 参考訳(メタデータ) (2022-10-07T00:40:59Z) - Enhanced Meta Reinforcement Learning using Demonstrations in Sparse
Reward Environments [10.360491332190433]
Demonstrations を用いた Enhanced Meta-RL というアルゴリズムのクラスを開発する。
本稿では、EMRLDがRLと教師付き学習をオフラインデータ上で併用してメタポリティクスを生成する方法を示す。
また,EMRLDアルゴリズムは,様々なスパース報酬環境における既存手法よりも有意に優れていることを示す。
論文 参考訳(メタデータ) (2022-09-26T22:01:12Z) - Logic-based Reward Shaping for Multi-Agent Reinforcement Learning [1.5483078145498084]
強化学習は、その環境から学び、観察された報酬を最大化するために探索に大きく依存する。
従来の作業では、タスクに基づいて報酬関数を合成する自動メカニズムを提供するために、オートマタとロジックベースの報酬整形と環境仮定を組み合わせた。
マルチエージェント強化学習における論理に基づく報酬形成は,様々なシナリオやタスクに対してどのように設計できるかを考察する。
論文 参考訳(メタデータ) (2022-06-17T16:30:27Z) - LDSA: Learning Dynamic Subtask Assignment in Cooperative Multi-Agent
Reinforcement Learning [122.47938710284784]
協調型MARLにおける動的サブタスク代入(LDSA)を学習するための新しいフレームワークを提案する。
エージェントを異なるサブタスクに合理的に割り当てるために,能力に基づくサブタスク選択戦略を提案する。
LDSAは、より優れたコラボレーションのために、合理的で効果的なサブタスクの割り当てを学習していることを示す。
論文 参考訳(メタデータ) (2022-05-05T10:46:16Z) - Discovery-and-Selection: Towards Optimal Multiple Instance Learning for
Weakly Supervised Object Detection [86.86602297364826]
複数インスタンス学習(DS-MIL)と融合した発見・選択手法を提案する。
我々の提案するDS-MILアプローチは,最先端の性能を報告しながら,ベースラインを一貫して改善することができる。
論文 参考訳(メタデータ) (2021-10-18T07:06:57Z) - Information Directed Reward Learning for Reinforcement Learning [64.33774245655401]
我々は、標準rlアルゴリズムが可能な限り少数の専門家クエリで高い期待値を達成することができる報酬関数のモデルを学ぶ。
特定のタイプのクエリ用に設計された以前のアクティブな報酬学習方法とは対照的に、IDRLは自然に異なるクエリタイプに対応します。
我々は,複数の環境における広範囲な評価と,異なるタイプのクエリでこの結果を支持する。
論文 参考訳(メタデータ) (2021-02-24T18:46:42Z) - Randomized Entity-wise Factorization for Multi-Agent Reinforcement
Learning [59.62721526353915]
実世界のマルチエージェント設定は、エージェントや非エージェントエンティティのタイプや量が異なるタスクを伴うことが多い。
我々の方法は、これらの共通点を活用することを目的としており、「観察対象のランダムに選択されたサブグループのみを考えるとき、各エージェントが期待する効用は何か?」という問いを投げかける。
論文 参考訳(メタデータ) (2020-06-07T18:28:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。