論文の概要: Efficient learning of large sets of locally optimal classification rules
- arxiv url: http://arxiv.org/abs/2301.09936v2
- Date: Thu, 26 Jan 2023 07:54:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-27 15:24:24.151997
- Title: Efficient learning of large sets of locally optimal classification rules
- Title(参考訳): 局所最適分類規則の大きな集合の効率的な学習
- Authors: Van Quoc Phuong Huynh, Johannes F\"urnkranz, Florian Beck
- Abstract要約: 従来のルール学習アルゴリズムは、単純なルールの集合を見つけることを目的としており、各ルールは可能な限り多くの例をカバーする。
本稿では、この方法で発見されたルールは、それらがカバーする例のそれぞれに対して最適な説明ではないかもしれないと論じる。
本稿では,1つの特殊化ループと1つの一般化ループからなるグリーディ最適化において,各トレーニング例をカバーする最良のルールを見つけることを目的とした,効率的なアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conventional rule learning algorithms aim at finding a set of simple rules,
where each rule covers as many examples as possible. In this paper, we argue
that the rules found in this way may not be the optimal explanations for each
of the examples they cover. Instead, we propose an efficient algorithm that
aims at finding the best rule covering each training example in a greedy
optimization consisting of one specialization and one generalization loop.
These locally optimal rules are collected and then filtered for a final rule
set, which is much larger than the sets learned by conventional rule learning
algorithms. A new example is classified by selecting the best among the rules
that cover this example. In our experiments on small to very large datasets,
the approach's average classification accuracy is higher than that of
state-of-the-art rule learning algorithms. Moreover, the algorithm is highly
efficient and can inherently be processed in parallel without affecting the
learned rule set and so the classification accuracy. We thus believe that it
closes an important gap for large-scale classification rule induction.
- Abstract(参考訳): 従来のルール学習アルゴリズムは、単純なルールの集合を見つけることを目的としており、各ルールは可能な限り多くの例をカバーする。
本稿では,この方法で発見された規則は,それらの例の最適説明ではないかもしれないと論じる。
代わりに,1つの特殊化と1つの一般化ループからなる欲望最適化において,各トレーニング例をカバーする最善のルールを見つけることを目的とした効率的なアルゴリズムを提案する。
これらの局所最適ルールは、従来のルール学習アルゴリズムが学習したセットよりもはるかに大きい最終ルールセットのために収集され、フィルタされる。
新しい例は、この例をカバーするルールの中でベストを選択することで分類される。
小規模から超大規模のデータセットを用いた実験では,アルゴリズムの平均分類精度は最先端ルール学習アルゴリズムよりも高い。
さらに、アルゴリズムは非常に効率的で、学習されたルールセットに影響を与えることなく本質的に並列に処理できるので、分類精度が向上する。
そこで我々は,大規模分類規則の帰納化において重要なギャップを埋めると考えている。
関連論文リスト
- Scalable Rule Lists Learning with Sampling [9.681286056736292]
大規模データセットからほぼ最適なルールリストを学習するための新しいアプローチを提案する。
本アルゴリズムは,最適規則リストの近似を効率的に取得するためにサンプリングを用いる。
我々のアルゴリズムは、最先端の正確なアプローチに対して最大2桁の速度で、ほぼ最適なルールリストを識別する。
論文 参考訳(メタデータ) (2024-06-18T17:15:00Z) - RulE: Knowledge Graph Reasoning with Rule Embedding [69.31451649090661]
我々は、論理ルールを活用してKG推論を強化する、textbfRulE(ルール埋め込みのためのスタンド)と呼ばれる原則的なフレームワークを提案する。
RulEは、既存の三重項と一階規則からルールの埋め込みを学習し、統一された埋め込み空間において、textbfentities、textbfrelations、textbflogical rulesを共同で表現する。
複数のベンチマークの結果、我々のモデルは既存の埋め込みベースのアプローチやルールベースのアプローチよりも優れています。
論文 参考訳(メタデータ) (2022-10-24T06:47:13Z) - Truly Unordered Probabilistic Rule Sets for Multi-class Classification [0.0]
真に順序のない規則集合に対するTURSを提案する。
まず、真に順序のない規則集合を学習する問題を定式化する。
次に、ルールを慎重に成長させることでルール集合を学習する2相アルゴリズムを開発する。
論文 参考訳(メタデータ) (2022-06-17T14:34:35Z) - Towards Target Sequential Rules [52.4562332499155]
ターゲット・シーケンシャル・ルール・マイニング(TaSRM)と呼ばれる効率的なアルゴリズムを提案する。
新たなアルゴリズムであるTaSRMとその変種は,既存のベースラインアルゴリズムと比較して実験性能がよいことを示す。
論文 参考訳(メタデータ) (2022-06-09T18:59:54Z) - Bayes Point Rule Set Learning [5.065947993017157]
解釈可能性は、機械学習アルゴリズムの設計においてますます重要な役割を担っている。
可分正規形式は、規則の集合を表現する最も解釈可能な方法である。
本稿では、DNF型ルールセットを学習するために、FIND-Sアルゴリズムの効果的なボトムアップ拡張を提案する。
論文 参考訳(メタデータ) (2022-04-11T16:50:41Z) - Interpretable and Fair Boolean Rule Sets via Column Generation [18.08486863429421]
整数プログラムは、規則単純性のために最適に分類精度を交換するように定式化される。
公平性の設定を考慮し、分類パリティの2つの異なる尺度に関する明示的な制約を含むように定式化を拡張した。
他の公正かつ解釈可能な分類器と比較して、我々の手法は、公正性のより厳密な概念に適合する規則セットを精度の低いトレードオフで見つけることができる。
論文 参考訳(メタデータ) (2021-11-16T13:40:28Z) - Discovering Useful Compact Sets of Sequential Rules in a Long Sequence [57.684967309375274]
COSSUは、小さな、意味のある一連の規則をマイニングするアルゴリズムである。
COSSUは、長いシーケンスから、関連するクローズド・シーケンシャル・ルールの集合を検索できることを示す。
論文 参考訳(メタデータ) (2021-09-15T18:25:18Z) - Better Short than Greedy: Interpretable Models through Optimal Rule
Boosting [10.938624307941197]
ルールアンサンブルは、予測精度とモデル解釈可能性の間の有用なトレードオフを提供するように設計されている。
与えられたアンサンブルサイズに対して最大予測力の規則アンサンブルを適合させる新しい手法を提案する。
論文 参考訳(メタデータ) (2021-01-21T01:03:48Z) - Tighter Generalization Bounds for Iterative Differentially Private
Learning Algorithms [95.73230376153872]
本稿では,反復学習アルゴリズムにおける一般化とプライバシ保護の関係を2つのステップで検討する。
我々は、$(varepsilon, delta)$-differential privacyは、マルチデータベース学習アルゴリズムに縛られる平均的な一般化を意味することを証明している。
次に,ほとんどの学習アルゴリズムが共有する反復的な性質が,プライバシーの保護とさらなる一般化にどのように影響するかを検討する。
論文 参考訳(メタデータ) (2020-07-18T09:12:03Z) - Meta-learning with Stochastic Linear Bandits [120.43000970418939]
我々は、よく知られたOFULアルゴリズムの正規化バージョンを実装するバンディットアルゴリズムのクラスを考える。
我々は,タスク数の増加とタスク分散の分散が小さくなると,タスクを個別に学習する上で,我々の戦略が大きな優位性を持つことを理論的および実験的に示す。
論文 参考訳(メタデータ) (2020-05-18T08:41:39Z) - Stochastic batch size for adaptive regularization in deep network
optimization [63.68104397173262]
ディープラーニングフレームワークにおける機械学習問題に適用可能な適応正規化を取り入れた一階最適化アルゴリズムを提案する。
一般的なベンチマークデータセットに適用した従来のネットワークモデルに基づく画像分類タスクを用いて,提案アルゴリズムの有効性を実証的に実証した。
論文 参考訳(メタデータ) (2020-04-14T07:54:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。