論文の概要: Probabilistic size-and-shape functional mixed models
- arxiv url: http://arxiv.org/abs/2411.18416v1
- Date: Wed, 27 Nov 2024 15:00:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-28 15:25:44.352458
- Title: Probabilistic size-and-shape functional mixed models
- Title(参考訳): 確率的大きさ・形状汎関数混合モデル
- Authors: Fangyi Wang, Karthik Bharath, Oksana Chkrebtii, Sebastian Kurtek,
- Abstract要約: 関数的混合モデルにより、平方積分可能な$mu$のサイズと形状を復元できることが示される。
ランダムなオブジェクトレベルのユニタリ変換は、個々の関数から$mu$の偏差を保持するサイズと形をキャプチャする。
- 参考スコア(独自算出の注目度): 6.424762079392286
- License:
- Abstract: The reliable recovery and uncertainty quantification of a fixed effect function $\mu$ in a functional mixed model, for modelling population- and object-level variability in noisily observed functional data, is a notoriously challenging task: variations along the $x$ and $y$ axes are confounded with additive measurement error, and cannot in general be disentangled. The question then as to what properties of $\mu$ may be reliably recovered becomes important. We demonstrate that it is possible to recover the size-and-shape of a square-integrable $\mu$ under a Bayesian functional mixed model. The size-and-shape of $\mu$ is a geometric property invariant to a family of space-time unitary transformations, viewed as rotations of the Hilbert space, that jointly transform the $x$ and $y$ axes. A random object-level unitary transformation then captures size-and-shape \emph{preserving} deviations of $\mu$ from an individual function, while a random linear term and measurement error capture size-and-shape \emph{altering} deviations. The model is regularized by appropriate priors on the unitary transformations, posterior summaries of which may then be suitably interpreted as optimal data-driven rotations of a fixed orthonormal basis for the Hilbert space. Our numerical experiments demonstrate utility of the proposed model, and superiority over the current state-of-the-art.
- Abstract(参考訳): 関数的混合モデルにおける固定効果関数 $\mu$ の信頼性回復と不確実性定量化は、雑音的に観測される関数データにおける集団と対象レベルの変動をモデル化するために、非常に難しい課題である。
すると、$\mu$のどのプロパティを確実に回収できるかという問題は重要になる。
ベイズ関数混合モデルの下で平方積分可能な$\mu$を復元できることを実証する。
$\mu$ の大きさと形は、時空のユニタリ変換の族に不変な幾何学的性質であり、ヒルベルト空間の回転と見なされ、$x$ と $y$ の軸を共に変換する。
ランダムなオブジェクトレベルのユニタリ変換は、個々の関数から$\mu$の大きさと形をした \emph{altering} の偏差をキャプチャし、ランダムな線形項と測定誤差のキャプチャサイズと形をした \emph{altering} 偏差をキャプチャする。
このモデルはユニタリ変換の適切な事前によって正規化され、後続の要約はヒルベルト空間の固定直交基底の最適データ駆動回転として適切に解釈される。
本研究は,提案モデルの有用性と現状よりも優れていることを示す数値実験である。
関連論文リスト
- Scaling Laws in Linear Regression: Compute, Parameters, and Data [86.48154162485712]
無限次元線形回帰セットアップにおけるスケーリング法則の理論について検討する。
テストエラーの再現可能な部分は$Theta(-(a-1) + N-(a-1)/a)$であることを示す。
我々の理論は経験的ニューラルスケーリング法則と一致し、数値シミュレーションによって検証される。
論文 参考訳(メタデータ) (2024-06-12T17:53:29Z) - Scaling and renormalization in high-dimensional regression [72.59731158970894]
本稿では,様々な高次元リッジ回帰モデルの訓練および一般化性能の簡潔な導出について述べる。
本稿では,物理と深層学習の背景を持つ読者を対象に,これらのトピックに関する最近の研究成果の紹介とレビューを行う。
論文 参考訳(メタデータ) (2024-05-01T15:59:00Z) - Learning with Norm Constrained, Over-parameterized, Two-layer Neural Networks [54.177130905659155]
近年の研究では、再生カーネルヒルベルト空間(RKHS)がニューラルネットワークによる関数のモデル化に適した空間ではないことが示されている。
本稿では,有界ノルムを持つオーバーパラメータ化された2層ニューラルネットワークに適した関数空間について検討する。
論文 参考訳(メタデータ) (2024-04-29T15:04:07Z) - A Bi-variant Variational Model for Diffeomorphic Image Registration with
Relaxed Jacobian Determinant Constraints [17.93018427389816]
本稿では,新しい二変差動画像登録モデルを提案する。
ヤコビ方程式 $det(nablabmvarphi(bmx)) = f(bmx) > 0$ 上の柔らかい制約は、局所変形をフレキシブル範囲内で縮小し、成長させることを可能にする。
緩和関数 $f(bmx)$ の最適化には正の制約が課され、正規化器は$f(bmx)$ の滑らかさを保証するために用いられる。
論文 参考訳(メタデータ) (2023-08-04T15:47:06Z) - Regular Variation in Hilbert Spaces and Principal Component Analysis for
Functional Extremes [1.6734018640023431]
我々はPeaks-Over-Thresholdフレームワークに自分自身を配置し、関数的極限は、相対的に大きい$L2$-norm $|X|$の観測$X$として定義される。
我々の目標は、このような極端な観測のために有限次元の射影をもたらす次元還元フレームワークを提案することである。
論文 参考訳(メタデータ) (2023-08-02T09:12:03Z) - Geometric Neural Diffusion Processes [55.891428654434634]
拡散モデルの枠組みを拡張して、無限次元モデリングに一連の幾何学的先行を組み込む。
これらの条件で、生成関数モデルが同じ対称性を持つことを示す。
論文 参考訳(メタデータ) (2023-07-11T16:51:38Z) - Robust Counterfactual Explanations for Neural Networks With Probabilistic Guarantees [11.841312820944774]
我々は、微分可能なモデルに対する潜在的なモデル変更に対する反ファクトの堅牢性を定量化するために、 $textitStability$ と呼ぶ尺度を提案します。
私たちの主な貢献は、十分高い値のtextitStability$の反ファクトが、高い確率でポテンシャルモデルが変化した後も有効であることを示すことです。
論文 参考訳(メタデータ) (2023-05-19T20:48:05Z) - Inverting brain grey matter models with likelihood-free inference: a
tool for trustable cytoarchitecture measurements [62.997667081978825]
脳の灰白質細胞構造の特徴は、体密度と体積に定量的に敏感であり、dMRIでは未解決の課題である。
我々は新しいフォワードモデル、特に新しい方程式系を提案し、比較的スパースなb殻を必要とする。
次に,提案手法を逆転させるため,確率自由推論 (LFI) として知られるベイズ解析から最新のツールを適用した。
論文 参考訳(メタデータ) (2021-11-15T09:08:27Z) - Ridge regression with adaptive additive rectangles and other piecewise
functional templates [0.0]
関数線形回帰モデルに対する$L_2$ベースのペナル化アルゴリズムを提案する。
提案アルゴリズムは,適切なテンプレートの近似と凸リッジのような問題の解法とを交互に行う方法を示す。
論文 参考訳(メタデータ) (2020-11-02T15:28:54Z) - Tight Nonparametric Convergence Rates for Stochastic Gradient Descent
under the Noiseless Linear Model [0.0]
このモデルに基づく最小二乗リスクに対する1パス, 固定段差勾配勾配の収束度を解析した。
特殊な場合として、ランダムなサンプリング点における値のノイズのない観測から単位区間上の実関数を推定するオンラインアルゴリズムを解析する。
論文 参考訳(メタデータ) (2020-06-15T08:25:50Z) - A Random Matrix Analysis of Random Fourier Features: Beyond the Gaussian
Kernel, a Precise Phase Transition, and the Corresponding Double Descent [85.77233010209368]
本稿では、データサンプルの数が$n$である現実的な環境で、ランダムフーリエ(RFF)回帰の正確さを特徴付けます。
この分析はまた、大きな$n,p,N$のトレーニングとテスト回帰エラーの正確な推定も提供する。
論文 参考訳(メタデータ) (2020-06-09T02:05:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。