論文の概要: TimberTrek: Exploring and Curating Sparse Decision Trees with
Interactive Visualization
- arxiv url: http://arxiv.org/abs/2209.09227v1
- Date: Mon, 19 Sep 2022 17:52:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 17:17:23.037464
- Title: TimberTrek: Exploring and Curating Sparse Decision Trees with
Interactive Visualization
- Title(参考訳): TimberTrek: インタラクティブな可視化によるスパース決定ツリーの探索とキュレーション
- Authors: Zijie J. Wang, Chudi Zhong, Rui Xin, Takuya Takagi, Zhi Chen, Duen
Horng Chau, Cynthia Rudin, Margo Seltzer
- Abstract要約: 我々はTimberTrekを開発した。TimberTrekは,数千のスパース決定木を大規模に要約した,対話型可視化システムである。
私たちのオープンソースツールは、ユーザの計算ノートブックやWebブラウザで直接動作します。
- 参考スコア(独自算出の注目度): 28.8103090227772
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Given thousands of equally accurate machine learning (ML) models, how can
users choose among them? A recent ML technique enables domain experts and data
scientists to generate a complete Rashomon set for sparse decision trees--a
huge set of almost-optimal interpretable ML models. To help ML practitioners
identify models with desirable properties from this Rashomon set, we develop
TimberTrek, the first interactive visualization system that summarizes
thousands of sparse decision trees at scale. Two usage scenarios highlight how
TimberTrek can empower users to easily explore, compare, and curate models that
align with their domain knowledge and values. Our open-source tool runs
directly in users' computational notebooks and web browsers, lowering the
barrier to creating more responsible ML models. TimberTrek is available at the
following public demo link: https://poloclub.github.io/timbertrek.
- Abstract(参考訳): 均等に正確な機械学習(ml)モデルが何千もあるので、ユーザはどのように選べますか?
最近のML技術により、ドメインの専門家とデータサイエンティストは、スパース決定ツリーのための完全なRashomonセットを生成することができる。
ML実践者がこのRashomonセットから望ましい特性を持つモデルを特定するのを助けるために,数千のスパースな決定木を大規模に要約した最初のインタラクティブな可視化システムであるTimberTrekを開発した。
timbertrekの2つのシナリオは、ユーザがドメインの知識と価値に合致するモデルを簡単に探求し、比較し、キュレートする上で、どのように役立つかを強調する。
私たちのオープンソースツールは、ユーザの計算ノートブックやWebブラウザで直接動作するので、より責任のあるMLモデルを作成するための障壁を低くします。
timbertrekは以下の公開デモリンクで利用可能である。
関連論文リスト
- "Oh LLM, I'm Asking Thee, Please Give Me a Decision Tree": Zero-Shot Decision Tree Induction and Embedding with Large Language Models [1.742301293487176]
大規模言語モデル(LLM)は、データ制限時に予測モデリングに事前知識を活用する強力な手段を提供する。
本研究では,LLMが圧縮された世界知識を用いて,本質的に解釈可能な機械学習モデルを生成する方法を示す。
論文 参考訳(メタデータ) (2024-09-27T09:53:48Z) - Penzai + Treescope: A Toolkit for Interpreting, Visualizing, and Editing Models As Data [3.1138391937813776]
Penzaiは、モデル操作を簡単にするためのニューラルネットワークライブラリである。
Treescopeはインタラクティブなビュートプリンダーであり、モデルインプット/アウトプットとモデル自体を視覚化できる配列ビジュアライザである。
論文 参考訳(メタデータ) (2024-08-01T00:45:37Z) - Tree-of-Traversals: A Zero-Shot Reasoning Algorithm for Augmenting Black-box Language Models with Knowledge Graphs [72.89652710634051]
知識グラフ(KG)は、信頼性があり、構造化され、ドメイン固有であり、最新の外部知識を提供することで、Large Language Models(LLM)を補完する。
そこで本研究では,ゼロショット推論アルゴリズムであるTree-of-Traversalsを導入する。
論文 参考訳(メタデータ) (2024-07-31T06:01:24Z) - LLAVADI: What Matters For Multimodal Large Language Models Distillation [77.73964744238519]
本研究では,新しい効率的なモデル構造を提案するのではなく,スクラッチから小規模MLLMを訓練する。
本研究は, 知識蒸留プロセスにおける学習戦略, モデル選択, 蒸留アルゴリズムに関するものである。
異なるベンチマークと適切な戦略を評価することで、2.7Bの小型モデルでも7Bまたは13Bのパラメータを持つ大型モデルと同等に動作することができる。
論文 参考訳(メタデータ) (2024-07-28T06:10:47Z) - Optimized Feature Generation for Tabular Data via LLMs with Decision Tree Reasoning [53.241569810013836]
本稿では,大規模言語モデル(LLM)を用いて,効率的な特徴生成ルールを同定するフレームワークを提案する。
我々は、自然言語で容易に表現できるため、この推論情報を伝達するために決定木を使用します。
OCTreeは様々なベンチマークで様々な予測モデルの性能を継続的に向上させる。
論文 参考訳(メタデータ) (2024-06-12T08:31:34Z) - Envisioning Outlier Exposure by Large Language Models for Out-of-Distribution Detection [71.93411099797308]
オープンワールドシナリオに機械学習モデルをデプロイする場合、アウト・オブ・ディストリビューション(OOD)サンプルは不可欠である。
本稿では,大規模言語モデル(LLM)の専門知識と推論能力を活用して,この制約に対処することを提案する。
EOEは、遠、近、きめ細かいOOD検出など、さまざまなタスクに一般化することができる。
EOEは様々なOODタスクで最先端のパフォーマンスを実現し、ImageNet-1Kデータセットに効果的にスケールできる。
論文 参考訳(メタデータ) (2024-06-02T17:09:48Z) - RecExplainer: Aligning Large Language Models for Explaining Recommendation Models [50.74181089742969]
大規模言語モデル (LLM) は、理解、推論、指導において顕著な知性を示した。
本稿では, ブラックボックスレコメンデータモデルを説明するために, LLM を代理モデルとして利用することについて検討する。
効果的なアライメントを容易にするために,行動アライメント,意図アライメント,ハイブリッドアライメントという3つの手法を導入する。
論文 参考訳(メタデータ) (2023-11-18T03:05:43Z) - Tree-GPT: Modular Large Language Model Expert System for Forest Remote
Sensing Image Understanding and Interactive Analysis [4.993840366641032]
本稿では,大規模言語モデル(LLM)を森林リモートセンシングデータワークフローに組み込んだ新しいフレームワークであるTree-GPTを紹介する。
プロトタイプシステムは、森林研究や環境科学におけるLLMの動的利用の可能性を示した。
論文 参考訳(メタデータ) (2023-10-07T06:12:39Z) - DeforestVis: Behavior Analysis of Machine Learning Models with Surrogate Decision Stumps [46.58231605323107]
複雑なMLモデルの振る舞いを要約する視覚解析ツールであるDeforestVisを提案する。
DeforestVisは、より多くの切り株をインクリメンタルに生成することで、複雑さとフィデリティのトレードオフを探索するのに役立つ。
DeforestVisの適用性と有用性について,2つのユースケースと,データアナリストとモデル開発者とのエキスパートインタビューで紹介する。
論文 参考訳(メタデータ) (2023-03-31T21:17:15Z) - Automatic Componentwise Boosting: An Interpretable AutoML System [1.1709030738577393]
本稿では,高度にスケーラブルなコンポーネントワイドブースティングアルゴリズムを用いて適用可能な,解釈可能な付加モデルを構築するAutoMLシステムを提案する。
我々のシステムは、部分的な効果やペアの相互作用を可視化するなど、簡単なモデル解釈のためのツールを提供する。
解釈可能なモデル空間に制限があるにもかかわらず、我々のシステムは、ほとんどのデータセットにおける予測性能の点で競争力がある。
論文 参考訳(メタデータ) (2021-09-12T18:34:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。