論文の概要: Facilitating Machine Learning Model Comparison and Explanation Through A
Radial Visualisation
- arxiv url: http://arxiv.org/abs/2104.07377v1
- Date: Thu, 15 Apr 2021 11:13:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-17 00:11:59.719146
- Title: Facilitating Machine Learning Model Comparison and Explanation Through A
Radial Visualisation
- Title(参考訳): 放射状可視化による機械学習モデルの比較と説明
- Authors: Jianlong Zhou, Weidong Huang, and Fang Chen
- Abstract要約: 動的な機能数を持つMLモデルの依存は、MLモデルとその依存機能を直接明らかにする視覚化の構造に符号化される。
可視化の構造とともに、特徴の重要性はML説明のためのRadialNet Chartで直接見分けることができます。
- 参考スコア(独自算出の注目度): 7.343688084393597
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Building an effective Machine Learning (ML) model for a data set is a
difficult task involving various steps. One of the most important steps is to
compare generated substantial amounts of ML models to find the optimal one for
the deployment. It is challenging to compare such models with dynamic number of
features. Comparison is more than just finding differences of ML model
performance, users are also interested in the relations between features and
model performance such as feature importance for ML explanations. This paper
proposes RadialNet Chart, a novel visualisation approach to compare ML models
trained with a different number of features of a given data set while revealing
implicit dependent relations. In RadialNet Chart, ML models and features are
represented by lines and arcs respectively. These lines are generated
effectively using a recursive function. The dependence of ML models with
dynamic number of features is encoded into the structure of visualisation,
where ML models and their dependent features are directly revealed from related
line connections. ML model performance information is encoded with colour and
line width in RadialNet Chart. Together with the structure of visualisation,
feature importance can be directly discerned in RadialNet Chart for ML
explanations.
- Abstract(参考訳): データセットに効果的な機械学習(ML)モデルを構築することは、さまざまなステップを含む難しい作業である。
最も重要なステップの1つは、生成された大量のMLモデルを比較して、デプロイメントに最適なものを見つけることである。
このようなモデルを動的な機能数と比較することは困難である。
比較は単にMLモデルのパフォーマンスの違いを見つけるだけでなく、ユーザーはML説明の特徴の重要性など、機能とモデルパフォーマンスの関係にも関心を持っている。
本稿では,あるデータセットの異なる特徴量で訓練されたMLモデルを比較し,暗黙的な依存関係を明らかにする新しい可視化手法であるRadialNet Chartを提案する。
radialnet chartでは、mlモデルと特徴はそれぞれ線と弧で表現される。
これらの線は再帰関数を用いて効果的に生成される。
動的特徴量を持つMLモデルの依存性を可視化構造にエンコードし、関連するライン接続から直接MLモデルとその依存する特徴を明らかにする。
mlモデルの性能情報はラジアルネットチャートで色と線幅でエンコードされる。
視覚化の構造とともに、特徴の重要性は、MLの説明のためにRadialNet Chartで直接認識することができる。
関連論文リスト
- Matchmaker: Self-Improving Large Language Model Programs for Schema Matching [60.23571456538149]
本稿では,スキーママッチングのための合成言語モデルプログラムを提案する。
Matchmakerは、ラベル付きデモを必要とせずに、ゼロショットで自己改善する。
実証的に、Matchmakerが以前のMLベースのアプローチより優れている実世界の医療スキーママッチングベンチマークを実証する。
論文 参考訳(メタデータ) (2024-10-31T16:34:03Z) - Img-Diff: Contrastive Data Synthesis for Multimodal Large Language Models [32.57246173437492]
本研究は,MLLMにおけるきめ細かい画像認識を強化するために,Img-Diffという新しいデータセットを提案する。
類似画像間のオブジェクト差を解析することにより、マッチングと異なるコンポーネントの両方を識別するモデルに挑戦する。
我々は、安定拡散XLモデルと高度な画像編集技術を用いて、オブジェクト置換をハイライトする類似画像のペアを作成する。
論文 参考訳(メタデータ) (2024-08-08T17:10:16Z) - ML-SUPERB 2.0: Benchmarking Multilingual Speech Models Across Modeling Constraints, Languages, and Datasets [106.7760874400261]
本稿では、事前訓練されたSSLと教師付き音声モデルを評価するための新しいベンチマークであるML-SUPERB2.0を提案する。
ML-SUPERBのセットアップよりも性能が向上するが、性能は下流モデル設計に依存している。
また、言語とデータセットのパフォーマンスに大きな違いがあることから、よりターゲットを絞ったアプローチの必要性も示唆されている。
論文 参考訳(メタデータ) (2024-06-12T21:01:26Z) - EMR-Merging: Tuning-Free High-Performance Model Merging [55.03509900949149]
Elect, Mask & Rescale-Merging (EMR-Merging) は既存のマージ手法と比較して優れた性能を示した。
EMR-Mergingはチューニング不要なので、データアベイラビリティや追加のトレーニングは必要ありません。
論文 参考訳(メタデータ) (2024-05-23T05:25:45Z) - TinyChart: Efficient Chart Understanding with Visual Token Merging and Program-of-Thoughts Learning [83.58521787193293]
本稿では,3Bパラメータのみを用いたチャート理解のための効率的なMLLMであるTinyChartを提案する。
TinyChartは,1)プログラム・オブ・ソート(PoT)学習戦略による数値計算学習の負担軽減,2)ビジョン・トーケン・マージ・モジュールによる高解像度画像のためのビジョン・トランスフォーマーによって生成される長大な視覚特徴系列の削減という,効率的なチャート理解における2つの課題を克服した。
論文 参考訳(メタデータ) (2024-04-25T14:23:24Z) - Multi-modal Auto-regressive Modeling via Visual Words [96.25078866446053]
本稿では,視覚的特徴を大規模多モードモデルの語彙上の確率分布にマッピングする視覚トークンの概念を提案する。
さらに、LMM内の意味空間における視覚的特徴の分布と、視覚情報を表現するためにテキスト埋め込みを使用することの可能性について検討する。
論文 参考訳(メタデータ) (2024-03-12T14:58:52Z) - Prayatul Matrix: A Direct Comparison Approach to Evaluate Performance of
Supervised Machine Learning Models [2.1320960069210475]
教師付き機械学習(ML)モデルの性能比較は、テストデータセット上で得られた様々な混乱行列に基づくスコアの観点から広く行われている。
本稿では,データセット内の個々のインスタンスの観点から,教師付きMLモデルの直接比較を行う方法を提案する。
論文 参考訳(メタデータ) (2022-09-26T14:32:50Z) - Dynamically-Scaled Deep Canonical Correlation Analysis [77.34726150561087]
カノニカル相関解析 (CCA) は, 2つのビューの特徴抽出手法である。
本稿では,入力依存の正準相関モデルをトレーニングするための新しい動的スケーリング手法を提案する。
論文 参考訳(メタデータ) (2022-03-23T12:52:49Z) - IMACS: Image Model Attribution Comparison Summaries [16.80986701058596]
我々は,勾配に基づくモデル属性とアグリゲーションと可視化技術を組み合わせたIMACSを提案する。
IMACSは評価データセットから適切な入力特徴を抽出し、類似性に基づいてクラスタ化し、類似した入力特徴に対するモデル属性の違いを可視化する。
本稿では,衛星画像上で訓練した2つのモデル間の領域シフトによる行動差を明らかにする方法を示す。
論文 参考訳(メタデータ) (2022-01-26T21:35:14Z) - Automatic Componentwise Boosting: An Interpretable AutoML System [1.1709030738577393]
本稿では,高度にスケーラブルなコンポーネントワイドブースティングアルゴリズムを用いて適用可能な,解釈可能な付加モデルを構築するAutoMLシステムを提案する。
我々のシステムは、部分的な効果やペアの相互作用を可視化するなど、簡単なモデル解釈のためのツールを提供する。
解釈可能なモデル空間に制限があるにもかかわらず、我々のシステムは、ほとんどのデータセットにおける予測性能の点で競争力がある。
論文 参考訳(メタデータ) (2021-09-12T18:34:33Z) - Better Feature Integration for Named Entity Recognition [30.676768644145]
両タイプの機能をSynergized-LSTM(Syn-LSTM)に組み込むためのシンプルで堅牢なソリューションを提案する。
その結果、提案モデルが従来のアプローチよりも優れたパフォーマンスを実現し、パラメータを少なくできることが示された。
論文 参考訳(メタデータ) (2021-04-12T09:55:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。