論文の概要: Quantifying the Conceptual Error in Dimensionality Reduction
- arxiv url: http://arxiv.org/abs/2106.06815v1
- Date: Sat, 12 Jun 2021 16:28:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-15 16:21:59.079768
- Title: Quantifying the Conceptual Error in Dimensionality Reduction
- Title(参考訳): 次元還元における概念誤差の定量化
- Authors: Tom Hanika and Johannes Hirth
- Abstract要約: データセットの次元減少は、機械学習と知識推論の領域における標準問題である。
様々な種類の縮小手順が使われており、それぞれ異なる目的を追求している。
これまでのところ考慮されていない基準は、還元写像の概念的連続性である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dimension reduction of data sets is a standard problem in the realm of
machine learning and knowledge reasoning. They affect patterns in and
dependencies on data dimensions and ultimately influence any decision-making
processes. Therefore, a wide variety of reduction procedures are in use, each
pursuing different objectives. A so far not considered criterion is the
conceptual continuity of the reduction mapping, i.e., the preservation of the
conceptual structure with respect to the original data set. Based on the notion
scale-measure from formal concept analysis we present in this work a) the
theoretical foundations to detect and quantify conceptual errors in data
scalings; b) an experimental investigation of our approach on eleven data sets
that were respectively treated with a variant of non-negative matrix
factorization.
- Abstract(参考訳): データセットの次元減少は、機械学習と知識推論の領域における標準問題である。
データ次元のパターンや依存関係に影響を与え、最終的には意思決定プロセスに影響を与えます。
そのため、異なる目的を追求する様々な削減手順が用いられている。
これまでに考慮されていない基準は、縮小写像の概念的連続性、すなわち、元のデータセットに関する概念的構造の保存である。
本研究では,データスケーリングにおける概念的誤りの検出と定量化に関する理論的基礎を,形式的概念分析による概念的尺度から導いた概念的尺度に基づいて,b)非負行列分解の変種でそれぞれ処理された11個のデータセットに対するアプローチを実験的に検討した。
関連論文リスト
- Structural Causality-based Generalizable Concept Discovery Models [29.932706137805713]
本稿では,変動オートエンコーダ(VAE)を用いて,与えられたデータセットに対して相互独立な生成因子を学習するためのアンタングル機構を提案する。
本手法は,生成因子から概念への因果関係を指向した2部グラフを形成するために生成因子と概念を仮定する。
提案手法は, 特定の下流タスクにおいて, 因果的要因からよく説明されるタスク固有の概念をうまく学習する。
論文 参考訳(メタデータ) (2024-10-20T20:09:47Z) - Losing dimensions: Geometric memorization in generative diffusion [10.573546162574235]
生成拡散における記憶理論を多様体支援データに拡張する。
理論的および実験的な結果から,異なる臨界時間における記憶効果とデータセットサイズにより,異なる部分空間が失われることが示唆された。
おそらく反故意に、ある条件下では、高い分散の部分空間は、暗記効果によって最初に失われることが分かる。
論文 参考訳(メタデータ) (2024-10-11T11:31:20Z) - Learning Discrete Concepts in Latent Hierarchical Models [73.01229236386148]
自然の高次元データから学習する概念は、ヒューマンアライメントと解釈可能な機械学習モデルの構築の可能性を秘めている。
我々は概念を階層的因果モデルを通して関連付けられた離散潜在因果変数として定式化する。
我々は、理論的な主張を合成データ実験で裏付ける。
論文 参考訳(メタデータ) (2024-06-01T18:01:03Z) - Evaluating Readability and Faithfulness of Concept-based Explanations [35.48852504832633]
概念に基づく説明は、大規模言語モデルによって学習された高レベルのパターンを説明するための有望な道として現れます。
現在の手法は、統一的な形式化を欠いた異なる視点から概念にアプローチする。
これにより、概念の中核となる尺度、すなわち忠実さや可読性を評価するのが難しくなります。
論文 参考訳(メタデータ) (2024-04-29T09:20:25Z) - Enriching Disentanglement: From Logical Definitions to Quantitative Metrics [59.12308034729482]
複雑なデータにおける説明的要素を遠ざけることは、データ効率の表現学習にとって有望なアプローチである。
論理的定義と量的指標の関連性を確立し, 理論的に根ざした絡み合いの指標を導出する。
本研究では,非交叉表現の異なる側面を分離することにより,提案手法の有効性を実証的に実証する。
論文 参考訳(メタデータ) (2023-05-19T08:22:23Z) - Learning from few examples with nonlinear feature maps [68.8204255655161]
我々はこの現象を探求し、AIモデルの特徴空間の次元性、データ分散の非退化、モデルの一般化能力の間の重要な関係を明らかにする。
本分析の主な推力は、元のデータを高次元および無限次元空間にマッピングする非線形特徴変換が結果のモデル一般化能力に与える影響である。
論文 参考訳(メタデータ) (2022-03-31T10:36:50Z) - Rate-Distortion Theoretic Generalization Bounds for Stochastic Learning
Algorithms [12.020634332110147]
我々は、レート歪曲理論のレンズを通して、新しい一般化が有界であることを証明している。
我々の結果は、一般化に関するより統一された視点をもたらし、将来の研究方向性を開拓する。
論文 参考訳(メタデータ) (2022-03-04T18:12:31Z) - Non-Linear Spectral Dimensionality Reduction Under Uncertainty [107.01839211235583]
我々は、不確実性情報を活用し、いくつかの従来のアプローチを直接拡張する、NGEUと呼ばれる新しい次元削減フレームワークを提案する。
提案したNGEUの定式化は,大域的な閉形式解を示し,Radecherの複雑性に基づいて,基礎となる不確実性がフレームワークの一般化能力に理論的にどのように影響するかを分析する。
論文 参考訳(メタデータ) (2022-02-09T19:01:33Z) - Developing Constrained Neural Units Over Time [81.19349325749037]
本稿では,既存のアプローチと異なるニューラルネットワークの定義方法に焦点をあてる。
ニューラルネットワークの構造は、データとの相互作用にも拡張される制約の特別なクラスによって定義される。
提案した理論は時間領域にキャストされ, データを順序づけられた方法でネットワークに提示する。
論文 参考訳(メタデータ) (2020-09-01T09:07:25Z) - Accounting for Unobserved Confounding in Domain Generalization [107.0464488046289]
本稿では,データセットの組み合わせから頑健で一般化可能な予測モデルを学習する際の問題点について検討する。
堅牢なモデルを学ぶことの課題の一部は、保存されていない共同設立者の影響にある。
異なるモダリティの医療データに対するアプローチの実証的性能を実証する。
論文 参考訳(メタデータ) (2020-07-21T08:18:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。