論文の概要: Statistical Depth Meets Machine Learning: Kernel Mean Embeddings and
Depth in Functional Data Analysis
- arxiv url: http://arxiv.org/abs/2105.12778v1
- Date: Wed, 26 May 2021 18:22:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-29 14:22:06.338209
- Title: Statistical Depth Meets Machine Learning: Kernel Mean Embeddings and
Depth in Functional Data Analysis
- Title(参考訳): 統計的深さと機械学習:関数型データ分析におけるカーネル平均埋め込みと深さ
- Authors: George Wynne and Stanislav Nagy
- Abstract要約: 関数データの一般的な$h$-depthと関連する統計深度は、カーネル平均埋め込みと見なすことができる。
この記事では、関数データに対する一般的な$h$-deepthと関連する統計的深さを、カーネルの平均埋め込みと見なす方法について強調する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Statistical depth is the act of gauging how representative a point is
compared to a reference probability measure. The depth allows introducing
rankings and orderings to data living in multivariate, or function spaces.
Though widely applied and with much experimental success, little theoretical
progress has been made in analysing functional depths. This article highlights
how the common $h$-depth and related statistical depths for functional data can
be viewed as a kernel mean embedding, a technique used widely in statistical
machine learning. This connection facilitates answers to open questions
regarding statistical properties of functional depths, as well as it provides a
link between the depth and empirical characteristic function based procedures
for functional data.
- Abstract(参考訳): 統計的深さは、ある点が基準確率測度と比較されるかを示す行為である。
深さは多変量空間や関数空間に住むデータにランキングや順序を導入することを可能にする。
広く応用され、多くの実験的な成功をおさめながら、機能深度を解析する理論的な進歩はほとんど行われていない。
本稿では、関数データに対する一般的な$h$-deepthと関連する統計深度を、統計機械学習で広く使われているカーネル平均埋め込みとみなす方法について述べる。
この接続は、関数深度の統計的性質に関するオープンな質問に対する回答を促進するとともに、関数データの深さと経験的特性関数に基づく手順のリンクを提供する。
関連論文リスト
- Deep networks for system identification: a Survey [56.34005280792013]
システム識別は、入力出力データから動的システムの数学的記述を学習する。
同定されたモデルの主な目的は、以前の観測から新しいデータを予測することである。
我々は、フィードフォワード、畳み込み、リカレントネットワークなどの文献で一般的に採用されているアーキテクチャについて論じる。
論文 参考訳(メタデータ) (2023-01-30T12:38:31Z) - MARS: Meta-Learning as Score Matching in the Function Space [79.73213540203389]
本稿では,一連の関連するデータセットから帰納バイアスを抽出する手法を提案する。
機能的ベイズニューラルネットワーク推論を用いて、前者をプロセスとみなし、関数空間で推論を行う。
本手法は,データ生成プロセスのスコア関数をメタラーニングすることにより,複雑な事前知識をシームレスに獲得し,表現することができる。
論文 参考訳(メタデータ) (2022-10-24T15:14:26Z) - Offline Reinforcement Learning with Differentiable Function
Approximation is Provably Efficient [65.08966446962845]
歴史的データを用いて意思決定戦略を最適化することを目的としたオフライン強化学習は、現実の応用に広く適用されている。
微分関数クラス近似(DFA)を用いたオフライン強化学習の検討から一歩踏み出した。
最も重要なことは、悲観的な適合Q-ラーニングアルゴリズムを解析することにより、オフライン微分関数近似が有効であることを示すことである。
論文 参考訳(メタデータ) (2022-10-03T07:59:42Z) - Embedding Functional Data: Multidimensional Scaling and Manifold
Learning [6.726255259929498]
この分野において重要な役割を担った古典的スケーリングとイソマプ(Isomap)に焦点をあてる。
プロセスでは、環境メトリクスが果たす重要な役割を強調します。
論文 参考訳(メタデータ) (2022-08-30T21:12:31Z) - Measuring Statistical Dependencies via Maximum Norm and Characteristic
Functions [0.0]
本稿では, 連接関数と積対角特性関数の差の最大ノルムに基づく統計的依存度尺度を提案する。
提案手法は、2つの異なる次元のランダムベクトル間の任意の統計的依存を検出することができる。
シミュレーションデータと実データの両方を用いて実験を行う。
論文 参考訳(メタデータ) (2022-08-16T20:24:31Z) - A Functional Information Perspective on Model Interpretation [30.101107406343665]
この研究は、モデル解釈可能性の理論的な枠組みを示唆している。
機能的フィッシャー情報によって機能的エントロピーを束縛する対数ソボレフの不等式に依存している。
提案手法は,様々なデータ信号に対する既存の解釈可能性サンプリング手法を超越していることを示す。
論文 参考訳(メタデータ) (2022-06-12T09:24:45Z) - A geometric perspective on functional outlier detection [0.0]
これまでに提案したよりも広く適用可能で現実的な機能外乱検出の概念を考案する。
本研究では,関数型データセットの幾何学的構造を確実に推論し,可視化するために,単純な多様体学習法が利用できることを示す。
合成および実データ集合に関する実験により、本手法は、少なくとも既存の関数型データ固有手法と同程度に、外乱検出性能をもたらすことを示した。
論文 参考訳(メタデータ) (2021-09-14T17:42:57Z) - Ranking the information content of distance measures [61.754016309475745]
2つの異なる距離測度を用いて保持する相対的情報を評価する統計的テストを導入する。
これにより、候補者のプールから最も情報に富んだ距離を測定することができる。
論文 参考訳(メタデータ) (2021-04-30T15:57:57Z) - More data or more parameters? Investigating the effect of data structure
on generalization [17.249712222764085]
データの特性は、トレーニング例の数とトレーニングパラメータの数の関数としてテストエラーに影響を与えます。
ラベル内のノイズや入力データの強い異方性がテストエラーと同じような役割を担っていることを示す。
論文 参考訳(メタデータ) (2021-03-09T16:08:41Z) - Estimating Structural Target Functions using Machine Learning and
Influence Functions [103.47897241856603]
統計モデルから特定可能な関数として生じる対象関数の統計的機械学習のための新しい枠組みを提案する。
このフレームワークは問題とモデルに依存しないものであり、応用統計学における幅広い対象パラメータを推定するのに使用できる。
我々は、部分的に観測されていない情報を持つランダム/二重ロバストな問題において、いわゆる粗大化に特に焦点をあてた。
論文 参考訳(メタデータ) (2020-08-14T16:48:29Z) - UNIPoint: Universally Approximating Point Processes Intensities [125.08205865536577]
学習可能な関数のクラスが任意の有効な強度関数を普遍的に近似できることを示す。
ニューラルポイントプロセスモデルであるUNIPointを実装し,各イベントの基底関数の和をパラメータ化するために,リカレントニューラルネットワークを用いた。
論文 参考訳(メタデータ) (2020-07-28T09:31:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。