論文の概要: DimVis: Interpreting Visual Clusters in Dimensionality Reduction With
Explainable Boosting Machine
- arxiv url: http://arxiv.org/abs/2402.06885v1
- Date: Sat, 10 Feb 2024 04:50:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-13 18:41:40.941787
- Title: DimVis: Interpreting Visual Clusters in Dimensionality Reduction With
Explainable Boosting Machine
- Title(参考訳): DimVis: 説明可能なブースティングマシンによる視覚クラスタの次元化の解釈
- Authors: Parisa Salmanian, Angelos Chatzimparmpas, Ali Can Karaca, Rafael M.
Martins
- Abstract要約: DimVisは、DRプロジェクションの解釈アシスタントとして、教師付きExplainable Boosting Machine(EBM)モデルを使用するツールである。
本ツールは,視覚的クラスタにおける特徴関連性の解釈を提供することにより,高次元データ解析を容易にする。
- 参考スコア(独自算出の注目度): 3.5775697416994485
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dimensionality Reduction (DR) techniques such as t-SNE and UMAP are popular
for transforming complex datasets into simpler visual representations. However,
while effective in uncovering general dataset patterns, these methods may
introduce artifacts and suffer from interpretability issues. This paper
presents DimVis, a visualization tool that employs supervised Explainable
Boosting Machine (EBM) models (trained on user-selected data of interest) as an
interpretation assistant for DR projections. Our tool facilitates
high-dimensional data analysis by providing an interpretation of feature
relevance in visual clusters through interactive exploration of UMAP
projections. Specifically, DimVis uses a contrastive EBM model that is trained
in real time to differentiate between the data inside and outside a cluster of
interest. Taking advantage of the inherent explainable nature of the EBM, we
then use this model to interpret the cluster itself via single and pairwise
feature comparisons in a ranking based on the EBM model's feature importance.
The applicability and effectiveness of DimVis are demonstrated through two use
cases involving real-world datasets, and we also discuss the limitations and
potential directions for future research.
- Abstract(参考訳): t-SNEやUMAPのようなDR技術は、複雑なデータセットを単純な視覚表現に変換するのに人気がある。
しかし、一般的なデータセットパターンを明らかにするのに効果的であるが、これらの方法はアーティファクトを導入し、解釈可能性の問題に苦しむ可能性がある。
本稿では, drプロジェクションの解釈アシスタントとして, 教師付き説明可能ブースティングマシン(ebm)モデル(ユーザ選択データに基づく学習)を用いた可視化ツールdimvisを提案する。
UMAPプロジェクションのインタラクティブな探索により,視覚クラスタの特徴的関連性を解釈し,高次元データ解析を容易にする。
具体的には、DimVisはコントラストのあるEMMモデルを使用して、リアルタイムにトレーニングされ、関心のクラスタ内と外部のデータを区別する。
EBMの本質的に説明可能な性質を生かして、このモデルを用いて、ESMモデルの特徴的重要性に基づいたランキングにおいて、クラスタ自体をシングルとペアの特徴比較によって解釈する。
DimVisの適用性と有効性は,実世界のデータセットを含む2つのユースケースを通じて実証され,今後の研究の限界と可能性についても論じる。
関連論文リスト
- AttributionScanner: A Visual Analytics System for Metadata-Free
Data-Slicing Based Model Validation [31.19426148651238]
AttributionScannerは、データスライシングベースの機械学習(ML)モデルの検証用に設計されたビジュアル分析システムである。
提案手法は,説明可能なAI(XAI)技術を用いて抽出した説明可能な特徴を利用して,解釈可能なデータスライスを識別する。
我々のフレームワークは、最先端のニューラルネットワーク正規化技術を使用することで、ドメインエキスパートにモデル問題に対処する権限を与えることで、ML開発サイクルを閉じる。
論文 参考訳(メタデータ) (2024-01-12T09:17:32Z) - Images in Discrete Choice Modeling: Addressing Data Isomorphism in
Multi-Modality Inputs [77.54052164713394]
本稿では,離散選択モデリング(DCM)と機械学習の交わりについて考察する。
本稿では,DCMフレームワーク内の従来の表型入力と同型情報を共有する高次元画像データの埋め込み結果について検討する。
論文 参考訳(メタデータ) (2023-12-22T14:33:54Z) - Towards Better Modeling with Missing Data: A Contrastive Learning-based
Visual Analytics Perspective [7.577040836988683]
データ不足は機械学習(ML)モデリングの課題となる可能性がある。
現在のアプローチは、特徴計算とラベル予測に分類される。
本研究は、観測データに欠落した値でモデル化するコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-18T13:16:24Z) - StableLLaVA: Enhanced Visual Instruction Tuning with Synthesized
Image-Dialogue Data [129.92449761766025]
本稿では,視覚的インストラクションチューニングのための画像と対話を同期的に合成する新しいデータ収集手法を提案する。
このアプローチは生成モデルのパワーを活用し、ChatGPTとテキスト・ツー・イメージ生成モデルの能力とを結合する。
本研究は,各種データセットを対象とした総合的な実験を含む。
論文 参考訳(メタデータ) (2023-08-20T12:43:52Z) - A Deep Generative Model for Interactive Data Annotation through Direct
Manipulation in Latent Space [2.2237337682863125]
ひとつは、グラフィカルユーザインタフェースの座標と、直接操作によるインタラクションのためのニューラルネットワークの潜在空間との類似性に依存している。
本研究は,1) ネットワークトレーニングの反復や勾配を反映する時間と力という2つの新しいアナロジーを提案し,2) 内部構造とユーザが提供するアノテーションの両方を考慮した,データのコンパクトなグラフィカル表現を学習するためのネットワークモデルを提案する。
論文 参考訳(メタデータ) (2023-05-24T16:50:05Z) - Unified Visual Relationship Detection with Vision and Language Models [89.77838890788638]
この研究は、複数のデータセットからラベル空間の結合を予測する単一の視覚的関係検出器のトレーニングに焦点を当てている。
視覚と言語モデルを活用した統合視覚関係検出のための新しいボトムアップ手法UniVRDを提案する。
人物体間相互作用検出とシーングラフ生成の双方による実験結果から,本モデルの競合性能が示された。
論文 参考訳(メタデータ) (2023-03-16T00:06:28Z) - Visual Auditor: Interactive Visualization for Detection and
Summarization of Model Biases [18.434430375939755]
機械学習(ML)システムがますます普及するにつれて、これらのシステムをデプロイ前にバイアスとして監査する必要がある。
近年の研究では、データのサブセット(またはスライス)を解釈可能で過小評価する形で、交差点バイアスを効果的に識別するアルゴリズムが開発されている。
モデルバイアスを監査・要約するための対話型可視化ツールであるVisual Auditorを提案する。
論文 参考訳(メタデータ) (2022-06-25T02:48:27Z) - AdViCE: Aggregated Visual Counterfactual Explanations for Machine
Learning Model Validation [9.996986104171754]
我々は,ブラックボックスモデルデバッグとバリデーションでユーザをガイドすることを目的とした視覚分析ツールであるAdViCEを紹介する。
1) ユーザ定義データサブセットの意思決定の比較を可能にするインタラクティブな可視化,(2) 反現実的説明の計算と視覚化を行うアルゴリズムとビジュアルデザイン。
論文 参考訳(メタデータ) (2021-09-12T22:52:12Z) - Multivariate Data Explanation by Jumping Emerging Patterns Visualization [78.6363825307044]
多変量データセットにおけるパターンの識別と視覚的解釈を支援するVAX(multiVariate dAta eXplanation)を提案する。
既存の類似のアプローチとは異なり、VAXはJumping Emerging Patternsという概念を使って、複数の多様化したパターンを特定し、集約し、データ変数のロジックの組み合わせを通して説明を生成する。
論文 参考訳(メタデータ) (2021-06-21T13:49:44Z) - Transforming Feature Space to Interpret Machine Learning Models [91.62936410696409]
この貢献は、特徴空間変換のレンズを通して機械学習モデルを解釈する新しいアプローチを提案する。
非条件的および条件付きポストホック診断ツールの拡張に使用できる。
提案手法の可能性を実証するために,46特徴のリモートセンシング土地被覆分類の事例研究を行った。
論文 参考訳(メタデータ) (2021-04-09T10:48:11Z) - The Role of the Input in Natural Language Video Description [60.03448250024277]
自然言語ビデオ記述(NLVD)は最近、コンピュータビジョン、自然言語処理、マルチメディア、自律型ロボティクスのコミュニティに強い関心を集めている。
本研究は, 視覚入力の役割に関する広範な研究を行い, 総合的なNLP性能について評価した。
t-SNEをベースとした解析を行い,検討した変換が全体的視覚データ分布に与える影響を評価する。
論文 参考訳(メタデータ) (2021-02-09T19:00:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。