論文の概要: An Accelerator for Rule Induction in Fuzzy Rough Theory
- arxiv url: http://arxiv.org/abs/2201.03649v1
- Date: Fri, 7 Jan 2022 15:14:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-12 13:56:20.282558
- Title: An Accelerator for Rule Induction in Fuzzy Rough Theory
- Title(参考訳): ファジィラフ理論における規則誘導加速器
- Authors: Suyun Zhao, Zhigang Dai, Xizhao Wang, Peng Ni, Hengheng Luo, Hong
Chen, Cuiping Li
- Abstract要約: 本稿ではファジィ粗理論に基づくルール誘導の加速器を提案する。
提案したアクセラレーターは、アクセラレーションのないルールベースの分類手法よりもはるかに高速に動作することができる。
- 参考スコア(独自算出の注目度): 14.096778201297845
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Rule-based classifier, that extract a subset of induced rules to efficiently
learn/mine while preserving the discernibility information, plays a crucial
role in human-explainable artificial intelligence. However, in this era of big
data, rule induction on the whole datasets is computationally intensive. So
far, to the best of our knowledge, no known method focusing on accelerating
rule induction has been reported. This is first study to consider the
acceleration technique to reduce the scale of computation in rule induction. We
propose an accelerator for rule induction based on fuzzy rough theory; the
accelerator can avoid redundant computation and accelerate the building of a
rule classifier. First, a rule induction method based on consistence degree,
called Consistence-based Value Reduction (CVR), is proposed and used as basis
to accelerate. Second, we introduce a compacted search space termed Key Set,
which only contains the key instances required to update the induced rule, to
conduct value reduction. The monotonicity of Key Set ensures the feasibility of
our accelerator. Third, a rule-induction accelerator is designed based on Key
Set, and it is theoretically guaranteed to display the same results as the
unaccelerated version. Specifically, the rank preservation property of Key Set
ensures consistency between the rule induction achieved by the accelerator and
the unaccelerated method. Finally, extensive experiments demonstrate that the
proposed accelerator can perform remarkably faster than the unaccelerated
rule-based classifier methods, especially on datasets with numerous instances.
- Abstract(参考訳): 識別性情報を保持しながら効率よく学習/マイニングするための誘導ルールのサブセットを抽出するルールベースの分類器は、人間の説明可能な人工知能において重要な役割を果たす。
しかし、このビッグデータの時代では、データセット全体のルール誘導は計算量が多い。
これまでのところ、ルール誘導の加速に焦点を当てた既知の手法は報告されていない。
本研究は,ルール帰納法における計算量の削減を目的とした加速法について考察する。
ファジィ粗さ理論に基づく規則誘導用加速器を提案する。この加速器は冗長な計算を回避でき,ルール分類器の構築を加速できる。
まず, 構成度に基づく規則帰納法として, 構成度ベース値低減法 (cvr) を提案し, 高速化のための基礎として用いた。
第二に、帰納規則の更新に必要なキーインスタンスのみを含むキーセットと呼ばれるコンパクトな検索空間を導入し、値の削減を行う。
鍵集合の単調性は加速器の実現性を保証する。
第3に、キーセットに基づいてルール推論アクセラレータを設計し、非加速版と同じ結果を理論的に保証する。
具体的には、キーセットのランク保存特性は、アクセルによって達成された規則と非加速法との整合性を保証する。
最後に、広範な実験により、提案する加速器は、特に多数のインスタンスを持つデータセットにおいて、非加速ルールベースの分類器メソッドよりも著しく高速に動作できることが示されている。
関連論文リスト
- Rethinking SIGN Training: Provable Nonconvex Acceleration without First-
and Second-Order Gradient Lipschitz [66.22095739795068]
符号ベースの手法は、パラメータ更新にのみ符号情報を使用するにもかかわらず、堅牢な性能を達成する能力によって注目されている。
符号に基づく手法の現在の収束解析は、一階加速度と二階加速度の強い仮定に依存する。
本稿では,より現実的な第1次および第2次加速度の仮定の下で,それらの収束を解析する。
論文 参考訳(メタデータ) (2023-10-23T06:48:43Z) - Automatic Rule Induction for Efficient Semi-Supervised Learning [56.91428251227253]
半教師付き学習は、少量のラベル付きデータからNLPモデルを一般化できることを約束している。
事前訓練されたトランスモデルはブラックボックス相関エンジンとして機能し、説明が困難であり、時には信頼性に欠ける振る舞いをする。
本稿では,これらの課題に,簡易かつ汎用的なフレームワークであるAutomatic Rule Injection (ARI) を用いて対処することを提案する。
論文 参考訳(メタデータ) (2022-05-18T16:50:20Z) - Convolutional Sparse Coding Fast Approximation with Application to
Seismic Reflectivity Estimation [9.005280130480308]
2~5回の反復で畳み込みスパース符号の良好な近似を生成する古典的反復しきい値アルゴリズムの高速化版を提案する。
提案手法の性能は, 合成シナリオと実データシナリオの両方において, 地震インバージョン問題によって実証される。
論文 参考訳(メタデータ) (2021-06-29T12:19:07Z) - Beyond Tikhonov: Faster Learning with Self-Concordant Losses via
Iterative Regularization [120.31448970413298]
我々は、チコノフ正則化の理論を一般化された自己協和損失関数に拡張する。
反復的チコノフ正規化スキームを用いて, GSC に対して高速かつ最適な速度が得られることを示す。
論文 参考訳(メタデータ) (2021-06-16T15:25:41Z) - Towards Understanding Knowledge Distillation [37.71779364624616]
知識蒸留は、分類器間の知識伝達において、経験的に非常に成功した技術である。
この現象の十分な理論的説明はない。
本稿では, 線形および深部線形分類器の特別事例を考察することにより, 蒸留の作業機構に関する最初の知見を提供する。
論文 参考訳(メタデータ) (2021-05-27T12:45:08Z) - Anderson acceleration of coordinate descent [5.794599007795348]
複数の機械学習問題において、座標降下はフルグレードの手法よりも性能が大幅に向上する。
本稿では,外挿による座標降下の高速化版を提案する。
論文 参考訳(メタデータ) (2020-11-19T19:01:48Z) - Direction Matters: On the Implicit Bias of Stochastic Gradient Descent
with Moderate Learning Rate [105.62979485062756]
本稿では,中等度学習におけるSGDの特定の正規化効果を特徴付けることを試みる。
SGDはデータ行列の大きな固有値方向に沿って収束し、GDは小さな固有値方向に沿って収束することを示す。
論文 参考訳(メタデータ) (2020-11-04T21:07:52Z) - A Scalable, Adaptive and Sound Nonconvex Regularizer for Low-rank Matrix
Completion [60.52730146391456]
そこで我々は,適応的かつ音質の高い"核フロベニウスノルム"と呼ばれる新しい非スケーラブルな低ランク正規化器を提案する。
特異値の計算をバイパスし、アルゴリズムによる高速な最適化を可能にする。
既存の行列学習手法では最速でありながら、最先端の回復性能が得られる。
論文 参考訳(メタデータ) (2020-08-14T18:47:58Z) - Progressively Pretrained Dense Corpus Index for Open-Domain Question
Answering [87.32442219333046]
本稿では,段落エンコーダを事前学習するための簡易かつ資源効率の高い手法を提案する。
本手法は,事前学習に7倍の計算資源を使用する既存の高密度検索法より優れている。
論文 参考訳(メタデータ) (2020-04-30T18:09:50Z) - Adaptive Stopping Rule for Kernel-based Gradient Descent Algorithms [27.002742106701863]
カーネルベース勾配降下アルゴリズムの適応的停止則を提案する。
学習理論の枠組みにおける適応的停止規則の性能を解析する。
論文 参考訳(メタデータ) (2020-01-09T08:12:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。