論文の概要: Investigating the Impact of Independent Rule Fitnesses in a Learning
Classifier System
- arxiv url: http://arxiv.org/abs/2207.05582v1
- Date: Tue, 12 Jul 2022 15:06:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-13 17:32:18.578366
- Title: Investigating the Impact of Independent Rule Fitnesses in a Learning
Classifier System
- Title(参考訳): 学習分類システムにおける独立ルール適合度の影響の検討
- Authors: Michael Heider, Helena Stegherr, Jonathan Wurth, Roman Sraj, J\"org
H\"ahner
- Abstract要約: 本稿では,コンパクトで解釈可能で透明なモデルを構築するためのルールベース学習システムであるSupRBを提案する。
本稿では,一連の回帰問題に対して,本システムの性能を徹底的に検討し,XCSFと比較する。
我々は,モデル構造を簡易に制御しながら,XCSFに匹敵するSupRBの評価結果を総合的に見出した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Achieving at least some level of explainability requires complex analyses for
many machine learning systems, such as common black-box models. We recently
proposed a new rule-based learning system, SupRB, to construct compact,
interpretable and transparent models by utilizing separate optimizers for the
model selection tasks concerning rule discovery and rule set composition.This
allows users to specifically tailor their model structure to fulfil use-case
specific explainability requirements. From an optimization perspective, this
allows us to define clearer goals and we find that -- in contrast to many state
of the art systems -- this allows us to keep rule fitnesses independent. In
this paper we investigate this system's performance thoroughly on a set of
regression problems and compare it against XCSF, a prominent rule-based
learning system. We find the overall results of SupRB's evaluation comparable
to XCSF's while allowing easier control of model structure and showing a
substantially smaller sensitivity to random seeds and data splits. This
increased control can aid in subsequently providing explanations for both
training and final structure of the model.
- Abstract(参考訳): 少なくともある程度の説明可能性を得るには、一般的なブラックボックスモデルなど、多くの機械学習システムに対して複雑な分析が必要である。
本稿では,ルール発見とルールセット構成に関するモデル選択タスクに対して,個別のオプティマイザを活用し,コンパクトで解釈可能な透明なモデルを構築するための新しいルールベース学習システムsuprbを提案する。
最適化の観点からは、より明確な目標を定義することができ、アートシステムの多くの状態とは対照的に、ルールの適合性を独立に維持することができる。
本稿では,一連の回帰問題に対して,本システムの性能を徹底的に検討し,卓越したルールベース学習システムであるXCSFと比較する。
suprbの評価結果はxcsfに匹敵する結果となり,モデル構造の制御が容易になり,ランダムな種子やデータ分割に対する感度が大幅に低下した。
このコントロールの増大は、モデルのトレーニングと最終的な構造の両方についての説明を提供するのに役立つ。
関連論文リスト
- On the Role of Information Structure in Reinforcement Learning for
Partially-Observable Sequential Teams and Games [65.268245109828]
情報構造の明示的表現は、強化学習問題を解析・解決する重要な要素であると主張する。
これにより、シーケンシャルな意思決定問題のよりリッチな分析が可能となり、より適切なアルゴリズム設計が可能となる。
論文 参考訳(メタデータ) (2024-03-01T21:28:19Z) - Learning Interpretable Rules for Scalable Data Representation and
Classification [11.393431987232425]
ルールベースのLearner Representation (RRL)は、データ表現と分類のための解釈可能な非ファジィ規則を学習する。
RRLは容易に調整でき、異なるシナリオの分類精度とモデルの複雑さのトレードオフを得ることができる。
論文 参考訳(メタデータ) (2023-10-22T15:55:58Z) - DeforestVis: Behavior Analysis of Machine Learning Models with Surrogate
Decision Stumps [49.97564931094598]
複雑なMLモデルの振る舞いをユーザフレンドリに要約するビジュアル分析ツールであるDeforestVisを提案する。
DeforestVisは、より多くの切り株をインクリメンタルに生成することで、複雑さとフィデリティのトレードオフを探索するのに役立つ。
DeforestVisの適用性と有用性について,2つのユースケースと,データアナリストとモデル開発者とのエキスパートインタビューで紹介する。
論文 参考訳(メタデータ) (2023-03-31T21:17:15Z) - LightTS: Lightweight Time Series Classification with Adaptive Ensemble
Distillation -- Extended Version [39.07118753818186]
最先端の分類精度は、しばしばアンサンブル学習によって達成される。
大規模なアンサンブルを軽量モデルに圧縮するLightTSフレームワークを提案する。
実世界の時系列セット128と、異なるタイプのベースモデルを用いた実験について報告する。
論文 参考訳(メタデータ) (2023-02-24T16:20:40Z) - Separating Rule Discovery and Global Solution Composition in a Learning
Classifier System [0.0]
本稿では,特に産業シナリオに特化して設計された,容易に解釈可能なルールベース学習システムを提案する。
システムの主な利点の1つは、ルールの条件とどのルールが問題に対する解決策を構成するかを別々に進化させることである。
SupRB2の評価結果はXCSFに匹敵するが,モデル構造を容易に制御できる。
論文 参考訳(メタデータ) (2022-02-03T16:45:05Z) - Visual Exploration of Machine Learning Model Behavior with Hierarchical
Surrogate Rule Sets [13.94542147252982]
本稿では,ユーザ定義パラメータに基づく階層的ルールを生成するアルゴリズムである階層的サロゲートルール(HSR)を提案する。
我々はまた、HSRと対話型代理ルール可視化を統合した視覚分析(VA)システムであるSuREにも貢献する。
パラメータ感度,時間性能,および代理決定木との比較により,本アルゴリズムの評価を行った。
論文 参考訳(メタデータ) (2022-01-19T17:03:35Z) - Weakly Supervised Semantic Segmentation via Alternative Self-Dual
Teaching [82.71578668091914]
本稿では,分類とマスク・リファインメント・コンポーネントを統合された深層モデルに組み込む,コンパクトな学習フレームワークを確立する。
本稿では,高品質な知識相互作用を促進するために,新たな自己双対学習(ASDT)機構を提案する。
論文 参考訳(メタデータ) (2021-12-17T11:56:56Z) - Scalable Rule-Based Representation Learning for Interpretable
Classification [12.736847587988853]
ルールベースのLearner Representation (RRL)は、データ表現と分類のための解釈可能な非ファジィ規則を学習する。
RRLは容易に調整でき、異なるシナリオの分類精度とモデルの複雑さのトレードオフを得ることができる。
論文 参考訳(メタデータ) (2021-09-30T13:07:42Z) - S2RMs: Spatially Structured Recurrent Modules [105.0377129434636]
モジュール構造とテンポラル構造の両方を同時に活用できる動的構造を利用するための一歩を踏み出します。
我々のモデルは利用可能なビューの数に対して堅牢であり、追加のトレーニングなしで新しいタスクに一般化できる。
論文 参考訳(メタデータ) (2020-07-13T17:44:30Z) - Explainable Matrix -- Visualization for Global and Local
Interpretability of Random Forest Classification Ensembles [78.6363825307044]
本研究では,ランダムフォレスト (RF) 解釈のための新しい可視化手法である Explainable Matrix (ExMatrix) を提案する。
単純なマトリックスのようなメタファで、行はルール、列は特徴、セルはルールを述語する。
ExMatrixの適用性は、異なる例を通じて確認され、RFモデルの解釈可能性を促進するために実際にどのように使用できるかを示している。
論文 参考訳(メタデータ) (2020-05-08T21:03:48Z) - Interpretable Learning-to-Rank with Generalized Additive Models [78.42800966500374]
ラーニング・ツー・ランクのモデルの解釈可能性は、非常に重要でありながら、比較的過小評価されている研究分野である。
解釈可能なランキングモデルの最近の進歩は、主に既存のブラックボックスランキングモデルに対するポストホックな説明の生成に焦点を当てている。
一般化加法モデル(GAM)をランキングタスクに導入することにより,本質的に解釈可能な学習 to ランクの基盤を築いた。
論文 参考訳(メタデータ) (2020-05-06T01:51:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。