論文の概要: Local Explanation of Dimensionality Reduction
- arxiv url: http://arxiv.org/abs/2204.14012v1
- Date: Fri, 29 Apr 2022 10:56:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-02 13:44:18.641958
- Title: Local Explanation of Dimensionality Reduction
- Title(参考訳): 次元性低減の局所的説明
- Authors: Avraam Bardos, Ioannis Mollas, Nick Bassiliades, Grigorios Tsoumakas
- Abstract要約: LXDR(LXDR)は,次元性低減手法の出力を局所的に解釈できる技術である。
実験結果と2つのLXDR使用例を示し,その有用性を評価した。
- 参考スコア(独自算出の注目度): 9.202274047046151
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dimensionality reduction (DR) is a popular method for preparing and analyzing
high-dimensional data. Reduced data representations are less computationally
intensive and easier to manage and visualize, while retaining a significant
percentage of their original information. Aside from these advantages, these
reduced representations can be difficult or impossible to interpret in most
circumstances, especially when the DR approach does not provide further
information about which features of the original space led to their
construction. This problem is addressed by Interpretable Machine Learning, a
subfield of Explainable Artificial Intelligence that addresses the opacity of
machine learning models. However, current research on Interpretable Machine
Learning has been focused on supervised tasks, leaving unsupervised tasks like
Dimensionality Reduction unexplored. In this paper, we introduce LXDR, a
technique capable of providing local interpretations of the output of DR
techniques. Experiment results and two LXDR use case examples are presented to
evaluate its usefulness.
- Abstract(参考訳): 次元性低減(DR)は高次元データを作成・解析するための一般的な手法である。
削減されたデータ表現は計算量が少なく、管理や視覚化が容易だが、オリジナルの情報のかなりの割合を保っている。
これらの利点とは別に、これらの減少した表現は、ほとんどの状況で解釈することが困難または不可能であり、特にDRアプローチが元の空間のどの特徴がそれらの構成に繋がったかについてのさらなる情報を提供していない場合である。
この問題は、機械学習モデルの不透明さに対処するExplainable Artificial IntelligenceのサブフィールドであるInterpretable Machine Learningによって解決される。
しかし、Interpretable Machine Learningに関する現在の研究は、教師なしタスクに焦点を合わせており、ディメンダリティリダクションのような教師なしタスクは未探索のままである。
本稿では,DR手法の出力を局所的に解釈できる技術であるLXDRを紹介する。
実験結果と2つのLXDR使用例を示し,その有用性を評価した。
関連論文リスト
- RAZOR: Refining Accuracy by Zeroing Out Redundancies [4.731404257629232]
ディープラーニング領域では、追加データの有用性はその情報性に依存している。
RAZORは,より小さいが十分な情報的部分集合を抽出するために設計された,新しいインスタンス選択手法である。
文学における多くの技術とは異なり、RAZORは教師なしと教師なしの両方の設定で操作できる。
論文 参考訳(メタデータ) (2024-10-18T08:04:31Z) - DimVis: Interpreting Visual Clusters in Dimensionality Reduction With Explainable Boosting Machine [3.2748787252933442]
DimVisは、DRプロジェクションの解釈アシスタントとして、教師付きExplainable Boosting Machine(EBM)モデルを使用するツールである。
本ツールは,視覚的クラスタにおける特徴関連性の解釈を提供することにより,高次元データ解析を容易にする。
論文 参考訳(メタデータ) (2024-02-10T04:50:36Z) - Analyzing Adversarial Inputs in Deep Reinforcement Learning [53.3760591018817]
本稿では, 正当性検証のレンズを用いて, 逆入力の特性を包括的に解析する。
このような摂動に対する感受性に基づいてモデルを分類するために、新しい計量である逆数率(Adversarial Rate)を導入する。
本分析は, 直交入力が所定のDRLシステムの安全性にどのように影響するかを実証的に示す。
論文 参考訳(メタデータ) (2024-02-07T21:58:40Z) - Explainable Attention for Few-shot Learning and Beyond [7.044125601403848]
本稿では,説明可能な難易度発見,特に数発の学習シナリオに適した新しいフレームワークを提案する。
提案手法では、深層強化学習を用いて、生の入力データに直接影響するハードアテンションの概念を実装している。
論文 参考訳(メタデータ) (2023-10-11T18:33:17Z) - Sequential Action-Induced Invariant Representation for Reinforcement
Learning [1.2046159151610263]
視覚的障害を伴う高次元観察からタスク関連状態表現を正確に学習する方法は、視覚的強化学習において難しい問題である。
本稿では,逐次動作の制御信号に従うコンポーネントのみを保持するために,補助学習者によってエンコーダを最適化した逐次行動誘発不変表現(SAR)法を提案する。
論文 参考訳(メタデータ) (2023-09-22T05:31:55Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Robust Saliency-Aware Distillation for Few-shot Fine-grained Visual
Recognition [57.08108545219043]
サンプルが少ない新しいサブカテゴリを認識することは、コンピュータビジョンにおいて不可欠で挑戦的な研究課題である。
既存の文献は、ローカルベースの表現アプローチを採用することでこの問題に対処している。
本稿では,ロバスト・サリエンシ・アウェア蒸留法(RSaD)を提案する。
論文 参考訳(メタデータ) (2023-05-12T00:13:17Z) - "Why Here and Not There?" -- Diverse Contrasting Explanations of
Dimensionality Reduction [75.97774982432976]
本稿では,次元削減のためのコントラスト説明の概念を紹介する。
本稿では,この概念を二次元データ可視化の具体的応用に適用する。
論文 参考訳(メタデータ) (2022-06-15T08:54:39Z) - Overcoming the curse of dimensionality with Laplacian regularization in
semi-supervised learning [80.20302993614594]
ラプラシア正規化の欠点を克服するための統計的解析を提供する。
望ましい振る舞いを示すスペクトルフィルタリング法を多数発表する。
我々は,本手法を大量のデータで利用できるようにするために,現実的な計算ガイドラインを提供する。
論文 参考訳(メタデータ) (2020-09-09T14:28:54Z) - A Survey on Large-scale Machine Learning [67.6997613600942]
機械学習はデータに対する深い洞察を与え、マシンが高品質な予測を行うことを可能にする。
ほとんどの高度な機械学習アプローチは、大規模なデータを扱う場合の膨大な時間コストに悩まされる。
大規模機械学習は、ビッグデータからパターンを、同等のパフォーマンスで効率的に学習することを目的としている。
論文 参考訳(メタデータ) (2020-08-10T06:07:52Z) - The Dilemma Between Data Transformations and Adversarial Robustness for
Time Series Application Systems [1.2056495277232115]
アドリシャルな例、あるいは攻撃者が生成したほぼ区別できない入力は、機械学習の精度を著しく低下させる。
この研究は、データ変換が、リカレントニューラルネットワーク上で効果的な敵サンプルを作成する敵の能力にどのように影響するかを考察する。
データ変換技術は、データセットの本質的な次元を近似した場合のみ、逆例に対する脆弱性を低減する。
論文 参考訳(メタデータ) (2020-06-18T22:43:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。