論文の概要: "Why Here and Not There?" -- Diverse Contrasting Explanations of
Dimensionality Reduction
- arxiv url: http://arxiv.org/abs/2206.07391v1
- Date: Wed, 15 Jun 2022 08:54:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-17 02:18:09.954192
- Title: "Why Here and Not There?" -- Diverse Contrasting Explanations of
Dimensionality Reduction
- Title(参考訳): 「なぜそこにいないのか?」-次元削減の多面的説明と対比
- Authors: Andr\'e Artelt, Alexander Schulz, Barbara Hammer
- Abstract要約: 本稿では,次元削減のためのコントラスト説明の概念を紹介する。
本稿では,この概念を二次元データ可視化の具体的応用に適用する。
- 参考スコア(独自算出の注目度): 75.97774982432976
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dimensionality reduction is a popular preprocessing and a widely used tool in
data mining. Transparency, which is usually achieved by means of explanations,
is nowadays a widely accepted and crucial requirement of machine learning based
systems like classifiers and recommender systems. However, transparency of
dimensionality reduction and other data mining tools have not been considered
much yet, still it is crucial to understand their behavior -- in particular
practitioners might want to understand why a specific sample got mapped to a
specific location. In order to (locally) understand the behavior of a given
dimensionality reduction method, we introduce the abstract concept of
contrasting explanations for dimensionality reduction, and apply a realization
of this concept to the specific application of explaining two dimensional data
visualization.
- Abstract(参考訳): 次元の減少は、データマイニングにおいて一般的な前処理であり、広く使われているツールである。
透明性は通常説明によって達成されるが、今日では分類器やレコメンダシステムといった機械学習ベースのシステムにおいて広く受け入れられ、決定的な要件となっている。
しかし、次元の縮小やその他のデータマイニングツールの透明性は、まだあまり考慮されていないが、それでも彼らの振る舞いを理解することは重要である。
与えられた次元減少法の振る舞いを(局所的に)理解するために,次元減少のための対照的な説明という抽象概念を導入し,この概念を2次元データ可視化の具体的応用に適用する。
関連論文リスト
- Distributional Reduction: Unifying Dimensionality Reduction and Clustering with Gromov-Wasserstein [56.62376364594194]
教師なし学習は、潜在的に大きな高次元データセットの基盤構造を捉えることを目的としている。
本研究では、最適輸送のレンズの下でこれらのアプローチを再検討し、Gromov-Wasserstein問題と関係を示す。
これにより、分散還元と呼ばれる新しい一般的なフレームワークが公開され、DRとクラスタリングを特別なケースとして回復し、単一の最適化問題内でそれらに共同で対処することができる。
論文 参考訳(メタデータ) (2024-02-03T19:00:19Z) - DimenFix: A novel meta-dimensionality reduction method for feature
preservation [64.0476282000118]
そこで我々は, グラデーション・ディフレッシブなプロセスを含む任意の基本次元還元法で操作できる新しいメタメソド, DimenFixを提案する。
DimenFixは、ディメンタリティの削減と見なされるさまざまな機能の重要性をユーザが定義できるようにすることで、与えられたデータセットを視覚化し、理解する新たな可能性を生み出します。
論文 参考訳(メタデータ) (2022-11-30T05:35:22Z) - Local Explanation of Dimensionality Reduction [9.202274047046151]
LXDR(LXDR)は,次元性低減手法の出力を局所的に解釈できる技術である。
実験結果と2つのLXDR使用例を示し,その有用性を評価した。
論文 参考訳(メタデータ) (2022-04-29T10:56:12Z) - The Two Dimensions of Worst-case Training and the Integrated Effect for
Out-of-domain Generalization [95.34898583368154]
機械学習モデルをトレーニングするための,新しい,シンプルで効果的な一般化を提案する。
二つの次元に沿ったWorst-case」という概念にちなむW2D法を命名する。
論文 参考訳(メタデータ) (2022-04-09T04:14:55Z) - Explainers in the Wild: Making Surrogate Explainers Robust to
Distortions through Perception [77.34726150561087]
説明における歪みの影響を知覚距離を埋め込むことで評価する手法を提案する。
Imagenet-Cデータセットの画像の説明を生成し、サロゲート説明書の知覚距離を使用して歪んだ画像と参照画像のより一貫性のある説明を作成する方法を示しています。
論文 参考訳(メタデータ) (2021-02-22T12:38:53Z) - Efficient computation of contrastive explanations [8.132423340684568]
対照的な説明と反実的な説明の関係について検討する。
本稿では,多くの標準機械学習モデルの正値(有理)を効率的に計算する2相アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-10-06T11:50:28Z) - Overcoming the curse of dimensionality with Laplacian regularization in
semi-supervised learning [80.20302993614594]
ラプラシア正規化の欠点を克服するための統計的解析を提供する。
望ましい振る舞いを示すスペクトルフィルタリング法を多数発表する。
我々は,本手法を大量のデータで利用できるようにするために,現実的な計算ガイドラインを提供する。
論文 参考訳(メタデータ) (2020-09-09T14:28:54Z) - Interpretable Representations in Explainable AI: From Theory to Practice [7.031336702345381]
解釈可能な表現は、ブラックボックス予測システムをターゲットにした多くの説明器のバックボーンである。
人間の理解可能な概念の存在と欠如をエンコードする解釈可能な表現の特性について検討する。
論文 参考訳(メタデータ) (2020-08-16T21:44:03Z) - Supervised Visualization for Data Exploration [9.742277703732187]
本稿では,無作為な森林確率と拡散に基づく次元減少に基づく新しい可視化手法について述べる。
我々のアプローチはノイズやパラメータのチューニングに頑健であり、データ探索のための信頼性の高い可視化を作成しながら、簡単に使用できる。
論文 参考訳(メタデータ) (2020-06-15T19:10:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。