論文の概要: VisRuler: Visual Analytics for Extracting Decision Rules from Bagged and
Boosted Decision Trees
- arxiv url: http://arxiv.org/abs/2112.00334v1
- Date: Wed, 1 Dec 2021 08:01:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-02 14:41:56.684481
- Title: VisRuler: Visual Analytics for Extracting Decision Rules from Bagged and
Boosted Decision Trees
- Title(参考訳): VisRuler: タグ付きおよびブーストされた決定木から決定ルールを抽出するビジュアル分析
- Authors: Angelos Chatzimparmpas, Rafael M. Martins, Andreas Kerren
- Abstract要約: バッグングとブースティングは、機械学習(ML)において、多くの個別決定木を生成する2つの一般的なアンサンブル手法である。
本稿では,このようなMLモデルから決定を抽出するユーザを支援する視覚分析ツールを提案する。
- 参考スコア(独自算出の注目度): 5.653716495767272
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bagging and boosting are two popular ensemble methods in machine learning
(ML) that produce many individual decision trees. Due to the inherent ensemble
characteristic of these methods, they typically outperform single decision
trees or other ML models in predictive performance. However, numerous decision
paths are generated for each decision tree, increasing the overall complexity
of the model and hindering its use in domains that require trustworthy and
explainable decisions, such as finance, social care, and health care. Thus, the
interpretability of bagging and boosting algorithms, such as random forests and
adaptive boosting, reduces as the number of decisions rises. In this paper, we
propose a visual analytics tool that aims to assist users in extracting
decisions from such ML models via a thorough visual inspection workflow that
includes selecting a set of robust and diverse models (originating from
different ensemble learning algorithms), choosing important features according
to their global contribution, and deciding which decisions are essential for
global explanation (or locally, for specific cases). The outcome is a final
decision based on the class agreement of several models and the explored manual
decisions exported by users. Finally, we evaluate the applicability and
effectiveness of VisRuler via a use case, a usage scenario, and a user study.
- Abstract(参考訳): バッグングとブースティングは、機械学習(ML)において多くの個別決定木を生成する2つの一般的なアンサンブル手法である。
これらの手法の固有のアンサンブル特性のため、予測性能において単一の決定木や他のMLモデルよりも優れる。
しかし、決定木ごとに多くの決定経路が生成され、モデル全体の複雑さが増大し、金融、社会医療、医療などの信頼できる説明可能な決定を必要とする領域での使用が妨げられる。
したがって、ランダムフォレストや適応的なブースティングなど、袋詰めやブースティングアルゴリズムの解釈性は、意思決定数の増加とともに低下する。
本稿では,ユーザによるMLモデルからの意思決定の抽出を支援するビジュアル分析ツールを提案する。このツールは,堅牢で多様なモデル(異なるアンサンブル学習アルゴリズムから派生したもの)を選択し,グローバルなコントリビューションに応じて重要な特徴を選択し,グローバルな説明(あるいは特定のケースに対して,どの決定が必須であるかを判断する。
結論は、いくつかのモデルのクラス合意とユーザがエクスポートした手作業による決定に基づく最終決定である。
最後に、ユースケース、利用シナリオ、ユーザスタディを通じて、VisRulerの適用性と有効性を評価する。
関連論文リスト
- An Interpretable Client Decision Tree Aggregation process for Federated Learning [7.8973037023478785]
本稿では,フェデレート学習シナリオを対象とした解釈可能なクライアント決定木集約プロセスを提案する。
このモデルは、決定ツリーの複数の決定パスの集約に基づいており、ID3やCARTなど、さまざまな決定ツリータイプで使用することができる。
4つのデータセットで実験を行い、分析により、モデルで構築された木が局所モデルを改善し、最先端のモデルより優れていることが示された。
論文 参考訳(メタデータ) (2024-04-03T06:53:56Z) - Modeling Boundedly Rational Agents with Latent Inference Budgets [56.24971011281947]
エージェントの計算制約を明示的にモデル化する潜在推論予算モデル(L-IBM)を導入する。
L-IBMは、最適なアクターの多様な集団のデータを使ってエージェントモデルを学ぶことができる。
我々は,L-IBMが不確実性の下での意思決定のボルツマンモデルに適合しているか,あるいは上回っていることを示す。
論文 参考訳(メタデータ) (2023-12-07T03:55:51Z) - One Model Many Scores: Using Multiverse Analysis to Prevent Fairness Hacking and Evaluate the Influence of Model Design Decisions [4.362723406385396]
設計と評価の決定の公平さをよりよく理解するために,多変量解析をどのように利用できるかを示す。
結果から,システム評価に関する決定が,同じモデルに対して,極めて異なる公平度指標を導出する可能性を強調した。
論文 参考訳(メタデータ) (2023-08-31T12:32:43Z) - AVIS: Autonomous Visual Information Seeking with Large Language Model
Agent [123.75169211547149]
本稿では,視覚的質問応答フレームワークAVISを提案する。
本手法は,LLM(Large Language Model)を利用して外部ツールの利用を動的に強化する。
AVIS は Infoseek や OK-VQA などの知識集約型視覚質問応答ベンチマークの最先端結果を達成する。
論文 参考訳(メタデータ) (2023-06-13T20:50:22Z) - DeforestVis: Behavior Analysis of Machine Learning Models with Surrogate Decision Stumps [46.58231605323107]
複雑なMLモデルの振る舞いを要約する視覚解析ツールであるDeforestVisを提案する。
DeforestVisは、より多くの切り株をインクリメンタルに生成することで、複雑さとフィデリティのトレードオフを探索するのに役立つ。
DeforestVisの適用性と有用性について,2つのユースケースと,データアナリストとモデル開発者とのエキスパートインタビューで紹介する。
論文 参考訳(メタデータ) (2023-03-31T21:17:15Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - R(Det)^2: Randomized Decision Routing for Object Detection [64.48369663018376]
本稿では,決定木とディープニューラルネットワークをエンドツーエンドの学習方法で組み合わせたオブジェクト検出手法を提案する。
効率的な学習を容易にするために,ノード選択型および連想型損失を伴うランダム化決定経路を提案する。
このアプローチをオブジェクト検出のためのランダム化決定ルーティングとして、R(Det)$2$と略す。
論文 参考訳(メタデータ) (2022-04-02T07:54:58Z) - Exploiting Meta-Cognitive Features for a Machine-Learning-Based One-Shot
Group-Decision Aggregation [0.7340017786387767]
信頼に基づく手法のようなメタ認知情報に依存する手法は、様々なタスクにおいて改善された。
本研究の目的は,メタ認知情報を活用し,そこから学習することである。
論文 参考訳(メタデータ) (2022-01-20T15:56:18Z) - Leveraging Expert Consistency to Improve Algorithmic Decision Support [62.61153549123407]
建設のギャップを狭めるために観測結果と組み合わせることができる情報源として,歴史専門家による意思決定の利用について検討する。
本研究では,データ内の各ケースが1人の専門家によって評価された場合に,専門家の一貫性を間接的に推定する影響関数に基づく手法を提案する。
本研究は, 児童福祉領域における臨床現場でのシミュレーションと実世界データを用いて, 提案手法が構成ギャップを狭めることに成功していることを示す。
論文 参考訳(メタデータ) (2021-01-24T05:40:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。