論文の概要: Probabilistic and reinforced mining of association rules
- arxiv url: http://arxiv.org/abs/2506.18155v1
- Date: Sun, 22 Jun 2025 19:51:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-24 19:06:36.777531
- Title: Probabilistic and reinforced mining of association rules
- Title(参考訳): 関係ルールの確率的・強化的マイニング
- Authors: Yongchao Huang,
- Abstract要約: 本研究は、アソシエーション・ルール・マイニング(ARM)のための4つの新しい確率的および強化駆動方式を導入する。
GPAR、BARM、MAB-ARM、RLARは、事前知識、モデリングの不確実性、アイテム依存、確率的推論、適応的な検索戦略を組み込む機能拡張を提供する。
これらのイノベーションは、小売、地理、ファイナンス、医療診断、リスクに敏感なシナリオなど、さまざまなアプリケーションドメインに対して、事前および依存関係インフォームド、不確実性対応、スケーラブルなARMフレームワークを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work introduces 4 novel probabilistic and reinforcement-driven methods for association rule mining (ARM): Gaussian process-based association rule mining (GPAR), Bayesian ARM (BARM), multi-armed bandit based ARM (MAB-ARM), and reinforcement learning based association rule mining (RLAR). These methods depart fundamentally from traditional frequency-based algorithms such as Apriori, FP-Growth, and Eclat, offering enhanced capabilities for incorporating prior knowledge, modeling uncertainty, item dependencies, probabilistic inference and adaptive search strategies. GPAR employs Gaussian processes to model item co-occurrence via feature representations, enabling principled inference, uncertainty quantification, and efficient generalization to unseen itemsets without retraining. BARM adopts a Bayesian framework with priors and optional correlation structures, yielding robust uncertainty quantification through full posterior distributions over item presence probabilities. MAB-ARM, including its Monte Carlo tree search (MCTS) companion, utilizes an upper confidence bound (UCB) strategy for efficient and adaptive exploration of the itemset space, while RLAR applies a deep Q-network (DQN) to learn a generalizable policy for identifying high-quality rules. Collectively, these approaches improve the flexibility and robustness of ARM, particularly for discovering rare or complex patterns and operating on small datasets. Empirical results on synthetic and real-world datasets demonstrate their effectiveness, while also highlighting trade-offs in computational complexity and interpretability. These innovations mark a significant shift from static, frequency-driven paradigms, offering some prior and dependency-informed, uncertainty-aware or scalable ARM frameworks for diverse application domains such as retail, geography, finance, medical diagnostics, and risk-sensitive scenarios.
- Abstract(参考訳): 本研究は,GPAR(Gaussian process-based association rule mining),BARM(Bayesian ARM),MB-ARM(MAB-ARM),RLAR(Reforceed Learning based association rule mining)の4つの新しい確率的・強化的手法を紹介する。
これらの手法は、Apriori、FP-Growth、Eclatといった従来の周波数ベースのアルゴリズムとは根本的に離れており、事前知識、モデリングの不確実性、アイテム依存、確率的推論、適応探索戦略を組み込む能力が強化されている。
GPARはガウス過程を用いて特徴表現を通じてアイテムの共起をモデル化し、原理的推論、不確実な定量化、そして再学習せずにアイテムセットを効率的に一般化することを可能にする。
BARMは、事前および任意の相関構造を持つベイズ的枠組みを採用し、アイテムの存在確率の完全な後部分布を通して堅牢な不確実性定量化をもたらす。
モンテカルロ木探索(MCTS)を含むMAB-ARMは、アイテムセット空間の効率的かつ適応的な探索に、上位信頼境界(UCB)戦略を利用する一方、RLARは、高品質な規則を特定するための一般化可能なポリシーを学ぶために、ディープQ-ネットワーク(DQN)を適用している。
集合的に見て、これらのアプローチはARMの柔軟性と堅牢性を改善する。
合成および実世界のデータセットに関する実証的な結果は、その効果を示しながら、計算複雑性と解釈可能性のトレードオフを強調している。
これらのイノベーションは、小売、地理、ファイナンス、医療診断、リスクに敏感なシナリオなど、さまざまなアプリケーションドメインに対して、事前および依存関係インフォームド、不確実性対応、スケーラブルなARMフレームワークを提供する。
関連論文リスト
- RAAD-LLM: Adaptive Anomaly Detection Using LLMs and RAG Integration [2.879328762187361]
本稿では,適応型異常検出のための新しいフレームワークであるRAAD-LLMを提案する。
ドメイン固有の知識を効果的に活用することにより、RAAD-LLMは時系列データにおける異常の検出を強化する。
実際のデータセットでは,70.7%から88.6%に精度が向上した。
論文 参考訳(メタデータ) (2025-03-04T17:20:43Z) - Burning RED: Unlocking Subtask-Driven Reinforcement Learning and Risk-Awareness in Average-Reward Markov Decision Processes [7.028778922533688]
平均回帰マルコフ決定プロセス(MDPs)は、不確実性の下でのシーケンシャルな意思決定の基盤となる枠組みを提供する。
本稿では,Reward-Extended Differential(RED)強化学習について紹介する。Reward-Extended Differential(RED)強化学習は,様々な学習目的,すなわちサブタスクを,平均リワード設定で同時に効果的かつ効率的に解ける新しいRLフレームワークである。
論文 参考訳(メタデータ) (2024-10-14T14:52:23Z) - LoRA-Ensemble: Efficient Uncertainty Modelling for Self-Attention Networks [52.46420522934253]
本稿では,自己注意ネットワークのためのパラメータ効率のよいアンサンブル手法であるLoRA-Ensembleを紹介する。
この方法は、BatchEnsembleのような最先端の暗黙のテクニックを上回るだけでなく、Explicit Ensembleの正確さにマッチするか超える。
論文 参考訳(メタデータ) (2024-05-23T11:10:32Z) - The Power of Resets in Online Reinforcement Learning [73.64852266145387]
ローカルシミュレータアクセス(あるいはローカルプランニング)を用いたオンライン強化学習を通してシミュレータのパワーを探求する。
カバー性が低いMPPは,Qstar$-realizabilityのみのサンプル効率で学習可能であることを示す。
ローカルシミュレーターアクセス下では, 悪名高いExogenous Block MDP問題が抽出可能であることを示す。
論文 参考訳(メタデータ) (2024-04-23T18:09:53Z) - Provable Risk-Sensitive Distributional Reinforcement Learning with
General Function Approximation [54.61816424792866]
本稿では,リスク感性分布強化学習(RS-DisRL)と静的リプシッツリスク対策(LRM),一般関数近似について紹介する。
モデルに基づく関数近似のためのモデルベース戦略であるtextttRS-DisRL-M と、一般値関数近似のためのモデルフリーアプローチである textttRS-DisRL-V の2つの革新的なメタアルゴリズムを設計する。
論文 参考訳(メタデータ) (2024-02-28T08:43:18Z) - QFree: A Universal Value Function Factorization for Multi-Agent
Reinforcement Learning [2.287186762346021]
マルチエージェント強化学習のための共通値関数分解法QFreeを提案する。
汎用複雑なMARLベンチマーク環境において,QFreeが最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2023-11-01T08:07:16Z) - SUNRISE: A Simple Unified Framework for Ensemble Learning in Deep
Reinforcement Learning [102.78958681141577]
SUNRISEは単純な統一アンサンブル法であり、様々な非政治的な深層強化学習アルゴリズムと互換性がある。
SUNRISEは, (a) アンサンブルに基づく重み付きベルマンバックアップと, (b) 最上位の自信境界を用いて行動を選択する推論手法を統合し, 効率的な探索を行う。
論文 参考訳(メタデータ) (2020-07-09T17:08:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。