論文の概要: Interpretable Visualizations of Data Spaces for Classification Problems
- arxiv url: http://arxiv.org/abs/2503.05861v1
- Date: Fri, 07 Mar 2025 18:47:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-11 15:52:14.733148
- Title: Interpretable Visualizations of Data Spaces for Classification Problems
- Title(参考訳): 分類問題に対するデータ空間の解釈的可視化
- Authors: Christian Jorgensen, Arthur Y. Lin, Rose K. Cersonsky,
- Abstract要約: 分類問題によって決定される決定境界の可視化に適したハイブリッド教師なし手法を提案する。
定性的かつ定量的に分析できる人間解釈可能な地図を提供する。
本稿では, この手法を化学駆動問題の観点から論じる一方で, 機械学習分類モデルの操作を「アンボックス化」するために, サブフィールドにまたがって応用を一般化することができる。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: How do classification models "see" our data? Based on their success in delineating behaviors, there must be some lens through which it is easy to see the boundary between classes; however, our current set of visualization techniques makes this prospect difficult. In this work, we propose a hybrid supervised-unsupervised technique distinctly suited to visualizing the decision boundaries determined by classification problems. This method provides a human-interpretable map that can be analyzed qualitatively and quantitatively, which we demonstrate through visualizing and interpreting a decision boundary for chemical neurotoxicity. While we discuss this method in the context of chemistry-driven problems, its application can be generalized across subfields for "unboxing" the operations of machine-learning classification models.
- Abstract(参考訳): 分類モデルは、どのようにデータを"見る"か?
振舞いの展開の成功を踏まえると、クラス間の境界が容易に見えるようなレンズがあるに違いないが、我々の現在の可視化技術は、この見通しを困難にしている。
本研究では,分類問題によって決定される決定境界の可視化に適したハイブリッド教師なし手法を提案する。
本手法は, 化学的神経毒性の決定境界を可視化し, 解釈することにより, 質的, 定量的に解析できる人間解釈マップを提供する。
本稿では, この手法を化学駆動問題の観点から論じる一方で, 機械学習分類モデルの操作を「アンボックス化」するために, サブフィールドにまたがって応用を一般化することができる。
関連論文リスト
- Food Image Classification and Segmentation with Attention-based Multiple
Instance Learning [51.279800092581844]
本稿では,食品画像分類とセマンティックセグメンテーションモデルを訓練するための弱教師付き方法論を提案する。
提案手法は、注意に基づくメカニズムと組み合わせて、複数のインスタンス学習アプローチに基づいている。
提案手法の有効性を検証するため,FoodSeg103データセット内の2つのメタクラスについて実験を行った。
論文 参考訳(メタデータ) (2023-08-22T13:59:47Z) - Estimating class separability of text embeddings with persistent homology [1.9956517534421363]
本稿では、トポロジ的観点からテキストデータセットのクラス分離性を推定する教師なし手法を提案する。
本手法を応用して, 組込みの分離性向上を図り, トレーニングプロセスが停止した場合の検知方法について述べる。
その結果,本手法のクラス分離性の推定値と教師付き手法のクラス分離性の推定値が一致していることが示唆された。
論文 参考訳(メタデータ) (2023-05-24T10:58:09Z) - Evaluating Disentanglement in Generative Models Without Knowledge of
Latent Factors [71.79984112148865]
本稿では,学習中に提示される学習力学に基づいて生成モデルのランキング付けを行う手法を提案する。
本手法は,近年の解離の理論的特徴から着想を得たものであり,その根底にある潜伏因子の監督は不要である。
論文 参考訳(メタデータ) (2022-10-04T17:27:29Z) - XCon: Learning with Experts for Fine-grained Category Discovery [4.787507865427207]
本稿では,XCon(Expert-Contrastive Learning)と呼ばれる新しい手法を提案する。
細粒度データセットを用いた実験では,従来の最適手法よりも明らかに改善された性能を示し,本手法の有効性を示した。
論文 参考訳(メタデータ) (2022-08-03T08:03:12Z) - Resolving label uncertainty with implicit posterior models [71.62113762278963]
本稿では,データサンプルのコレクション間でラベルを共同で推論する手法を提案する。
異なる予測子を後部とする生成モデルの存在を暗黙的に仮定することにより、弱い信念の下での学習を可能にする訓練目標を導出する。
論文 参考訳(メタデータ) (2022-02-28T18:09:44Z) - TorchEsegeta: Framework for Interpretability and Explainability of
Image-based Deep Learning Models [0.0]
臨床医はしばしば自動画像処理アプローチ、特にディープラーニングに基づく手法の適用に懐疑的である。
本稿では,アルゴリズムの決定に最も影響を及ぼす解剖学的領域を記述することによって,ディープラーニングアルゴリズムの結果の解釈と説明を支援するアプローチを提案する。
ディープラーニングモデルに様々な解釈可能性および説明可能性技術を適用するための統合フレームワークであるTorchEsegetaを提案する。
論文 参考訳(メタデータ) (2021-10-16T01:00:15Z) - Discriminative Attribution from Counterfactuals [64.94009515033984]
本稿では,特徴属性と反実的説明を組み合わせたニューラルネットワークの解釈可能性について述べる。
本手法は,特徴属性法の性能を客観的に評価するために有効であることを示す。
論文 参考訳(メタデータ) (2021-09-28T00:53:34Z) - Deep Clustering by Semantic Contrastive Learning [67.28140787010447]
Semantic Contrastive Learning (SCL) と呼ばれる新しい変種を紹介します。
従来のコントラスト学習とディープクラスタリングの両方の特徴を探求する。
コントラスト学習と深層クラスタリングの強みを統一的なアプローチで増幅することができる。
論文 参考訳(メタデータ) (2021-03-03T20:20:48Z) - Going Beyond Saliency Maps: Training Deep Models to Interpret Deep
Models [16.218680291606628]
解釈性は、複雑な深層学習モデルを用いて脳障害の理解を進める上で重要な要素である。
疾患のパターンを注入または除去するために、与えられたイメージを歪めることができるシミュレーターネットワークを訓練することを提案する。
本研究は,アルツハイマー病とアルコール使用障害の影響を可視化するために,合成データセットと2つのニューロイメージングデータセットで訓練された分類器の解釈に応用する。
論文 参考訳(メタデータ) (2021-02-16T15:57:37Z) - Visualization of Supervised and Self-Supervised Neural Networks via
Attribution Guided Factorization [87.96102461221415]
クラスごとの説明性を提供するアルゴリズムを開発した。
実験の広範なバッテリーでは、クラス固有の可視化のための手法の能力を実証する。
論文 参考訳(メタデータ) (2020-12-03T18:48:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。