論文の概要: Supervised Visualization for Data Exploration
- arxiv url: http://arxiv.org/abs/2006.08701v1
- Date: Mon, 15 Jun 2020 19:10:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 04:01:30.291868
- Title: Supervised Visualization for Data Exploration
- Title(参考訳): データ探索のための可視化
- Authors: Jake S. Rhodes, Adele Cutler, Guy Wolf, Kevin R. Moon
- Abstract要約: 本稿では,無作為な森林確率と拡散に基づく次元減少に基づく新しい可視化手法について述べる。
我々のアプローチはノイズやパラメータのチューニングに頑健であり、データ探索のための信頼性の高い可視化を作成しながら、簡単に使用できる。
- 参考スコア(独自算出の注目度): 9.742277703732187
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dimensionality reduction is often used as an initial step in data
exploration, either as preprocessing for classification or regression or for
visualization. Most dimensionality reduction techniques to date are
unsupervised; they do not take class labels into account (e.g., PCA, MDS,
t-SNE, Isomap). Such methods require large amounts of data and are often
sensitive to noise that may obfuscate important patterns in the data. Various
attempts at supervised dimensionality reduction methods that take into account
auxiliary annotations (e.g., class labels) have been successfully implemented
with goals of increased classification accuracy or improved data visualization.
Many of these supervised techniques incorporate labels in the loss function in
the form of similarity or dissimilarity matrices, thereby creating
over-emphasized separation between class clusters, which does not realistically
represent the local and global relationships in the data. In addition, these
approaches are often sensitive to parameter tuning, which may be difficult to
configure without an explicit quantitative notion of visual superiority. In
this paper, we describe a novel supervised visualization technique based on
random forest proximities and diffusion-based dimensionality reduction. We
show, both qualitatively and quantitatively, the advantages of our approach in
retaining local and global structures in data, while emphasizing important
variables in the low-dimensional embedding. Importantly, our approach is robust
to noise and parameter tuning, thus making it simple to use while producing
reliable visualizations for data exploration.
- Abstract(参考訳): 次元の減少は、分類や回帰のための前処理や視覚化のためのデータ探索の最初のステップとしてしばしば用いられる。
これまでのほとんどの次元還元技法は教師なしであり、クラスラベルを考慮しない(例えば、pca、mds、t-sne、isomap)。
このような方法は大量のデータを必要とし、しばしばデータの重要なパターンを難読化するノイズに敏感である。
補助アノテーション(例えばクラスラベル)を考慮した次元縮小法を監督する様々な試みは、分類精度の向上やデータの可視化の改善を目標として、うまく実施されている。
これらの教師付き技術の多くは、類似性や相似性行列という形で損失関数にラベルを組み込むことで、データ内の局所的および大域的な関係を現実的に表現しないクラスクラスタ間の過大な分離を生み出す。
さらに、これらのアプローチはしばしばパラメータチューニングに敏感であり、視覚的優越性の明確な定量的概念なしでは構成が難しい。
本稿では,無作為な森林確率と拡散に基づく次元減少に基づく新しい可視化手法について述べる。
低次元埋め込みにおいて重要な変数を強調しながら、データの局所的および大域的構造を維持する際のアプローチの利点を質的かつ定量的に示す。
重要なことは、我々のアプローチはノイズやパラメータチューニングに頑健であり、データ探索のための信頼性の高い可視化を作成しながら、簡単に使用できることである。
関連論文リスト
- Enhancing Fine-Grained Visual Recognition in the Low-Data Regime Through Feature Magnitude Regularization [23.78498670529746]
抽出した特徴量の均等分布を保証するために正規化手法を導入する。
その明らかな単純さにもかかわらず、我々の手法は様々な細粒度視覚認識データセットに対して顕著な性能向上を示した。
論文 参考訳(メタデータ) (2024-09-03T07:32:46Z) - Distributional Reduction: Unifying Dimensionality Reduction and Clustering with Gromov-Wasserstein [56.62376364594194]
教師なし学習は、潜在的に大きな高次元データセットの基盤構造を捉えることを目的としている。
本研究では、最適輸送のレンズの下でこれらのアプローチを再検討し、Gromov-Wasserstein問題と関係を示す。
これにより、分散還元と呼ばれる新しい一般的なフレームワークが公開され、DRとクラスタリングを特別なケースとして回復し、単一の最適化問題内でそれらに共同で対処することができる。
論文 参考訳(メタデータ) (2024-02-03T19:00:19Z) - ShaRP: Shape-Regularized Multidimensional Projections [71.30697308446064]
本稿では,生成した散布板の視覚的シグネチャをユーザが明示的に制御できる新しいプロジェクション技術,ShaRPを提案する。
ShaRPは次元とデータセットサイズによく対応し、任意の定量的データセットを汎用的に処理する。
論文 参考訳(メタデータ) (2023-06-01T11:16:58Z) - Domain Adaptive Multiple Instance Learning for Instance-level Prediction
of Pathological Images [45.132775668689604]
アノテーションのコストを増大させることなく、ターゲットデータセットの分類性能を向上させるためのタスク設定を提案する。
両手法の監督情報を効果的に組み合わせるために,信頼性の高い擬似ラベルを作成する手法を提案する。
論文 参考訳(メタデータ) (2023-04-07T08:31:06Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Weakly Supervised Change Detection Using Guided Anisotropic Difusion [97.43170678509478]
我々は、このようなデータセットを変更検出の文脈で活用するのに役立つ独自のアイデアを提案する。
まず,意味的セグメンテーション結果を改善する誘導異方性拡散(GAD)アルゴリズムを提案する。
次に、変化検出に適した2つの弱い教師付き学習戦略の可能性を示す。
論文 参考訳(メタデータ) (2021-12-31T10:03:47Z) - Overcoming the curse of dimensionality with Laplacian regularization in
semi-supervised learning [80.20302993614594]
ラプラシア正規化の欠点を克服するための統計的解析を提供する。
望ましい振る舞いを示すスペクトルフィルタリング法を多数発表する。
我々は,本手法を大量のデータで利用できるようにするために,現実的な計算ガイドラインを提供する。
論文 参考訳(メタデータ) (2020-09-09T14:28:54Z) - Semi-Supervised Learning with Meta-Gradient [123.26748223837802]
半教師付き学習における簡単なメタ学習アルゴリズムを提案する。
その結果,提案アルゴリズムは最先端の手法に対して良好に動作することがわかった。
論文 参考訳(メタデータ) (2020-07-08T08:48:56Z) - Supervised Discriminative Sparse PCA with Adaptive Neighbors for
Dimensionality Reduction [47.1456603605763]
そこで本研究では, 適応隣り合わせの線形次元削減手法(SDSPCAAN)を提案する。
その結果、グローバルデータ構造とローカルデータ構造、およびラベル情報の両方が、より次元性の低減に使用される。
論文 参考訳(メタデータ) (2020-01-09T17:02:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。