論文の概要: Hierarchical Models: Intrinsic Separability in High Dimensions
- arxiv url: http://arxiv.org/abs/2003.07770v1
- Date: Sun, 15 Mar 2020 09:27:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-23 08:37:53.984812
- Title: Hierarchical Models: Intrinsic Separability in High Dimensions
- Title(参考訳): 階層モデル:高次元における内在分離性
- Authors: Wen-Yan Lin
- Abstract要約: 長年、高次元データが奇妙なパターンを示すことに気付いてきた。
これは「祝福」または「祝福」と様々な解釈がなされている。
これらのパターンは本質的に階層的な生成過程から生じると考えられる。
- 参考スコア(独自算出の注目度): 4.435339856574534
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It has long been noticed that high dimension data exhibits strange patterns.
This has been variously interpreted as either a "blessing" or a "curse",
causing uncomfortable inconsistencies in the literature. We propose that these
patterns arise from an intrinsically hierarchical generative process. Modeling
the process creates a web of constraints that reconcile many different theories
and results. The model also implies high dimensional data posses an innate
separability that can be exploited for machine learning. We demonstrate how
this permits the open-set learning problem to be defined mathematically,
leading to qualitative and quantitative improvements in performance.
- Abstract(参考訳): 長年、高次元データが奇妙なパターンを示すことに気付いてきた。
これは「祝福」または「呪文」と様々な解釈がなされており、文学における不快な矛盾の原因となっている。
我々は,これらのパターンを階層的生成プロセスから生ずることを提案する。
プロセスモデリングは、多くの異なる理論と結果を調和させる制約の網を作ります。
このモデルはまた、機械学習に活用できる自然分離性を持つ高次元データも含んでいる。
本研究では,オープンセット学習問題を数学的に定義し,質的かつ定量的な性能向上につながることを実証する。
関連論文リスト
- Breaking the Curse of Dimensionality in Deep Neural Networks by Learning
Invariant Representations [1.9580473532948401]
この論文は、これらのモデルのアーキテクチャとそれらが処理するデータ内の固有の構造との関係を研究することによって、ディープラーニングの理論的基礎を探求する。
ディープラーニングアルゴリズムの有効性を駆動するものは何か,いわゆる次元の呪いに勝てるのか,と問う。
本手法は,実験的な研究と物理に触発された玩具モデルを組み合わせることによって,深層学習に実証的なアプローチをとる。
論文 参考訳(メタデータ) (2023-10-24T19:50:41Z) - Exploring the Representation Manifolds of Stable Diffusion Through the
Lens of Intrinsic Dimension [0.0]
安定拡散のプロンプトによって誘導される基本幾何学的性質を理解するための第一歩を踏み出す。
我々は,プロンプトの選択がモデルの両層における表現の本質的な次元に重大な影響を与えることを発見した。
我々の証拠は、本質的な次元は、異なるプロンプトがテキスト・ツー・イメージモデルに与える影響について将来の研究に有用なツールになり得ることを示唆している。
論文 参考訳(メタデータ) (2023-02-16T16:22:30Z) - Interpreting Black-box Machine Learning Models for High Dimensional
Datasets [40.09157165704895]
我々は、高次元データセット上でブラックボックスモデルをトレーニングし、その分類が行われる埋め込みを学習する。
次に、トップk特徴空間上の解釈可能な代理モデルを用いてブラックボックスモデルの挙動を近似する。
我々のアプローチは、異なるデータセットでテストした場合、TabNetやXGboostのような最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2022-08-29T07:36:17Z) - Learning from few examples with nonlinear feature maps [68.8204255655161]
我々はこの現象を探求し、AIモデルの特徴空間の次元性、データ分散の非退化、モデルの一般化能力の間の重要な関係を明らかにする。
本分析の主な推力は、元のデータを高次元および無限次元空間にマッピングする非線形特徴変換が結果のモデル一般化能力に与える影響である。
論文 参考訳(メタデータ) (2022-03-31T10:36:50Z) - Model-agnostic multi-objective approach for the evolutionary discovery
of mathematical models [55.41644538483948]
現代のデータ科学では、どの部分がより良い結果を得るために置き換えられるかというモデルの性質を理解することがより興味深い。
合成データ駆動型モデル学習において,多目的進化最適化を用いてアルゴリズムの所望特性を求める。
論文 参考訳(メタデータ) (2021-07-07T11:17:09Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Human-interpretable model explainability on high-dimensional data [8.574682463936007]
2つのモジュールからなる高次元データに対する人間解釈可能な説明可能性のためのフレームワークを提案する。
まず、データの生の次元性を減らし、人間の解釈可能性を確保するために、意味的に意味のある潜在表現を適用する。
第2に、モデルに依存しないこれらの潜在的特徴を扱うために、Shapleyパラダイムを適用し、理論的に制御され、計算的に抽出可能なモデル説明をもたらす。
論文 参考訳(メタデータ) (2020-10-14T20:06:28Z) - Deducing neighborhoods of classes from a fitted model [68.8204255655161]
本稿では,新しいタイプの解釈可能な機械学習手法を提案する。
量子シフトを用いた分類モデルでは、特徴空間の予測クラスへの分割を理解するのに役立ちます。
基本的に、実際のデータポイント(または特定の関心点)を使用し、特定の特徴をわずかに引き上げたり減少させたりした後の予測の変化を観察する。
論文 参考訳(メタデータ) (2020-09-11T16:35:53Z) - Explainable Matrix -- Visualization for Global and Local
Interpretability of Random Forest Classification Ensembles [78.6363825307044]
本研究では,ランダムフォレスト (RF) 解釈のための新しい可視化手法である Explainable Matrix (ExMatrix) を提案する。
単純なマトリックスのようなメタファで、行はルール、列は特徴、セルはルールを述語する。
ExMatrixの適用性は、異なる例を通じて確認され、RFモデルの解釈可能性を促進するために実際にどのように使用できるかを示している。
論文 参考訳(メタデータ) (2020-05-08T21:03:48Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。