論文の概要: Embedding Functional Data: Multidimensional Scaling and Manifold
Learning
- arxiv url: http://arxiv.org/abs/2208.14540v1
- Date: Tue, 30 Aug 2022 21:12:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-01 13:57:38.463794
- Title: Embedding Functional Data: Multidimensional Scaling and Manifold
Learning
- Title(参考訳): 関数データの埋め込み:多次元スケーリングとマニフォールド学習
- Authors: Ery Arias-Castro, Wanli Qiao
- Abstract要約: この分野において重要な役割を担った古典的スケーリングとイソマプ(Isomap)に焦点をあてる。
プロセスでは、環境メトリクスが果たす重要な役割を強調します。
- 参考スコア(独自算出の注目度): 6.726255259929498
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We adapt concepts, methodology, and theory originally developed in the areas
of multidimensional scaling and dimensionality reduction for multivariate data
to the functional setting. We focus on classical scaling and Isomap --
prototypical methods that have played important roles in these area -- and
showcase their use in the context of functional data analysis. In the process,
we highlight the crucial role that the ambient metric plays.
- Abstract(参考訳): 我々は,多変量データの多次元スケールと次元縮小の領域で開発された概念,方法論,理論を機能設定に適用する。
我々は,この領域で重要な役割を担ってきた古典的スケーリングとisomap (prototypical method) に注目し,機能的データ分析の文脈での使用例を示す。
プロセスでは、環境メトリクスが果たす重要な役割を強調します。
関連論文リスト
- Prospector Heads: Generalized Feature Attribution for Large Models & Data [82.02696069543454]
本稿では,説明に基づく帰属手法の効率的かつ解釈可能な代替手段であるプロスペクタヘッドを紹介する。
入力データにおけるクラス固有のパターンの解釈と発見を、プロファイラヘッドがいかに改善できるかを実証する。
論文 参考訳(メタデータ) (2024-02-18T23:01:28Z) - On the estimation of the number of components in multivariate functional principal component analysis [0.0]
保持する主成分の数の選定を検討するため, 広範囲なシミュレーションを行った。
本研究では,各単変量機能特徴に対する分散説明しきい値のパーセンテージを用いた従来の手法は信頼性が低いことを示す。
論文 参考訳(メタデータ) (2023-11-08T09:05:42Z) - On the use of the Gram matrix for multivariate functional principal components analysis [0.0]
機能的データ分析(FDA)における次元減少の重要性
関数主成分分析の既存のアプローチは、通常共分散作用素の対角化を伴う。
本稿では,曲線間の内部積を用いて多変量および多次元関数的データセットの固有値を推定する。
論文 参考訳(メタデータ) (2023-06-22T15:09:41Z) - Towards a mathematical understanding of learning from few examples with
nonlinear feature maps [68.8204255655161]
トレーニングセットがわずか数個のデータポイントから構成されるデータ分類の問題を考える。
我々は、AIモデルの特徴空間の幾何学、基礎となるデータ分布の構造、モデルの一般化能力との間の重要な関係を明らかにする。
論文 参考訳(メタデータ) (2022-11-07T14:52:58Z) - Dynamic Latent Separation for Deep Learning [67.62190501599176]
機械学習の中核的な問題は、複雑なデータに対するモデル予測のための表現力のある潜在変数を学習することである。
本稿では,表現性を向上し,部分的解釈を提供し,特定のアプリケーションに限定されないアプローチを開発する。
論文 参考訳(メタデータ) (2022-10-07T17:56:53Z) - Learning from few examples with nonlinear feature maps [68.8204255655161]
我々はこの現象を探求し、AIモデルの特徴空間の次元性、データ分散の非退化、モデルの一般化能力の間の重要な関係を明らかにする。
本分析の主な推力は、元のデータを高次元および無限次元空間にマッピングする非線形特徴変換が結果のモデル一般化能力に与える影響である。
論文 参考訳(メタデータ) (2022-03-31T10:36:50Z) - Self-Attention Neural Bag-of-Features [103.70855797025689]
我々は最近導入された2D-Attentionの上に構築し、注意学習方法論を再構築する。
本稿では,関連情報を強調した2次元目視マスクを学習する機能・時間的アテンション機構を提案する。
論文 参考訳(メタデータ) (2022-01-26T17:54:14Z) - A geometric perspective on functional outlier detection [0.0]
これまでに提案したよりも広く適用可能で現実的な機能外乱検出の概念を考案する。
本研究では,関数型データセットの幾何学的構造を確実に推論し,可視化するために,単純な多様体学習法が利用できることを示す。
合成および実データ集合に関する実験により、本手法は、少なくとも既存の関数型データ固有手法と同程度に、外乱検出性能をもたらすことを示した。
論文 参考訳(メタデータ) (2021-09-14T17:42:57Z) - Statistical Depth Meets Machine Learning: Kernel Mean Embeddings and
Depth in Functional Data Analysis [0.0]
関数データの一般的な$h$-depthと関連する統計深度は、カーネル平均埋め込みと見なすことができる。
この記事では、関数データに対する一般的な$h$-deepthと関連する統計的深さを、カーネルの平均埋め込みと見なす方法について強調する。
論文 参考訳(メタデータ) (2021-05-26T18:22:33Z) - Transforming Feature Space to Interpret Machine Learning Models [91.62936410696409]
この貢献は、特徴空間変換のレンズを通して機械学習モデルを解釈する新しいアプローチを提案する。
非条件的および条件付きポストホック診断ツールの拡張に使用できる。
提案手法の可能性を実証するために,46特徴のリモートセンシング土地被覆分類の事例研究を行った。
論文 参考訳(メタデータ) (2021-04-09T10:48:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。