論文の概要: On the Anisotropy of Score-Based Generative Models
- arxiv url: http://arxiv.org/abs/2510.22899v1
- Date: Mon, 27 Oct 2025 01:01:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 19:54:32.576595
- Title: On the Anisotropy of Score-Based Generative Models
- Title(参考訳): スコアベース生成モデルの異方性について
- Authors: Andreas Floros, Seyed-Mohsen Moosavi-Dezfooli, Pier Luigi Dragotti,
- Abstract要約: Score Anisotropy Directions (SAD)を導入し、異なるネットワークがデータ構造を優先的にキャプチャする方法を明らかにする。
我々の研究は、生成モデルの方向性バイアスの説明と予測のための新しいレンズを提供する。
- 参考スコア(独自算出の注目度): 21.619549942021592
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We investigate the role of network architecture in shaping the inductive biases of modern score-based generative models. To this end, we introduce the Score Anisotropy Directions (SADs), architecture-dependent directions that reveal how different networks preferentially capture data structure. Our analysis shows that SADs form adaptive bases aligned with the architecture's output geometry, providing a principled way to predict generalization ability in score models prior to training. Through both synthetic data and standard image benchmarks, we demonstrate that SADs reliably capture fine-grained model behavior and correlate with downstream performance, as measured by Wasserstein metrics. Our work offers a new lens for explaining and predicting directional biases of generative models.
- Abstract(参考訳): 現代のスコアベース生成モデルの帰納バイアス形成におけるネットワークアーキテクチャの役割について検討する。
この目的のために,Score Anisotropy Directions (SAD)を導入し,異なるネットワークがデータ構造を優先的に捉える方法を明らかにする。
本分析により,SADはアーキテクチャの出力形状に適合する適応基底を形成し,学習前のスコアモデルにおける一般化能力を推定する原理的方法を提供する。
合成データと標準画像ベンチマークの両方を通して、SADがモデル挙動を確実に把握し、Wassersteinメトリクスによって測定された下流のパフォーマンスと相関することを示した。
我々の研究は、生成モデルの方向性バイアスの説明と予測のための新しいレンズを提供する。
関連論文リスト
- Deep Neural Networks as Iterated Function Systems and a Generalization Bound [2.7920304852537536]
2つの重要なディープアーキテクチャは、場所に依存したIFSとみなすことができるか、あるいは正統に関連付けられるかを示す。
データ分布と画像間のコラージュ型近似誤差を制御する生成モデリングのためのワッサーシュタイン境界を導出する。
論文 参考訳(メタデータ) (2026-01-27T07:32:49Z) - Nonparametric Data Attribution for Diffusion Models [57.820618036556084]
生成モデルのデータ属性は、個々のトレーニング例がモデル出力に与える影響を定量化する。
生成画像とトレーニング画像のパッチレベルの類似性によって影響を測定する非パラメトリック属性法を提案する。
論文 参考訳(メタデータ) (2025-10-16T03:37:16Z) - Generalized Factor Neural Network Model for High-dimensional Regression [50.554377879576066]
複素・非線形・雑音に隠れた潜在低次元構造を持つ高次元データセットをモデル化する課題に取り組む。
我々のアプローチは、非パラメトリック回帰、因子モデル、高次元回帰のためのニューラルネットワークの概念のシームレスな統合を可能にする。
論文 参考訳(メタデータ) (2025-02-16T23:13:55Z) - Elucidating Flow Matching ODE Dynamics with Respect to Data Geometries and Denoisers [10.947094609205765]
フローマッチング(FM)モデルは、ODEサンプルモデルに基づく拡散モデルを一般的なフレームワークに拡張する。
FMモデルの厳密な理論的解析は、サンプルの品質、安定性、より広範な適用性に不可欠である。
本稿では,サンプル軌道の包括的解析により,FMモデルの理論を推し進める。
論文 参考訳(メタデータ) (2024-12-25T01:17:15Z) - Optimizing Sequential Recommendation Models with Scaling Laws and Approximate Entropy [104.48511402784763]
SRモデルの性能法則は,モデルの性能とデータ品質の関係を理論的に調査し,モデル化することを目的としている。
データ品質を評価するために、従来のデータ量メトリクスと比較して、より曖昧なアプローチを示すために、近似エントロピー(ApEn)を提案する。
論文 参考訳(メタデータ) (2024-11-30T10:56:30Z) - Sub-graph Based Diffusion Model for Link Prediction [43.15741675617231]
拡散確率モデル(Denoising Diffusion Probabilistic Models, DDPM)は、例外的な品質を持つ同時代の生成モデルである。
本研究では,ベイズ式による確率推定過程を分解するために,専用設計を用いたリンク予測のための新しい生成モデルを構築した。
提案手法は,(1)再トレーニングを伴わないデータセット間の転送可能性,(2)限られたトレーニングデータに対する有望な一般化,(3)グラフ敵攻撃に対する堅牢性など,多くの利点を示す。
論文 参考訳(メタデータ) (2024-09-13T02:23:55Z) - PerturBench: Benchmarking Machine Learning Models for Cellular Perturbation Analysis [8.785345412061792]
摂動に対する単一細胞転写応答をモデル化するための包括的枠組みを提案する。
私たちのアプローチには、モジュラーでユーザフレンドリなモデル開発と評価プラットフォームが含まれています。
モード崩壊など、広く使われているモデルの限界を強調します。
論文 参考訳(メタデータ) (2024-08-20T07:40:20Z) - Probabilistic Traffic Forecasting with Dynamic Regression [15.31488551912888]
本稿では,交通予測における誤り過程の学習を取り入れた動的回帰(DR)フレームワークを提案する。
このフレームワークは、行列構造自己回帰(AR)モデルを用いてベースモデルのエラー系列をモデル化することにより、時間独立の仮定を緩和する。
新たに設計された損失関数は、非等方的誤差項の確率に基づいており、モデルがベースモデルの元の出力を保持しながら確率的予測を生成することができる。
論文 参考訳(メタデータ) (2023-01-17T01:12:44Z) - Device Modeling Bias in ReRAM-based Neural Network Simulations [1.5490932775843136]
ジャンプテーブルのようなデータ駆動モデリングアプローチは、ニューラルネットワークシミュレーションのためのメモリデバイスをモデル化することを約束している。
本研究では,様々なジャンプテーブルデバイスモデルが達成したネットワーク性能評価に与える影響について検討する。
MNISTでトレーニングされた多層パーセプトロンの結果は、バイナリに基づくデバイスモデルが予測不可能に振る舞うことを示した。
論文 参考訳(メタデータ) (2022-11-29T04:45:06Z) - Sparse Flows: Pruning Continuous-depth Models [107.98191032466544]
生成モデルにおいて,プルーニングによりニューラルネットワークの一般化が向上することを示す。
また、プルーニングは、元のネットワークに比べて最大98%少ないパラメータで、精度を損なうことなく、最小かつ効率的なニューラルODE表現を見出すことを示した。
論文 参考訳(メタデータ) (2021-06-24T01:40:17Z) - Self-Learning for Received Signal Strength Map Reconstruction with
Neural Architecture Search [63.39818029362661]
ニューラルアーキテクチャサーチ(NAS)と受信信号強度(RSS)マップ再構築のための自己学習に基づくモデルを提案する。
このアプローチは、まず最適なNNアーキテクチャを見つけ、与えられた(RSS)マップの地上実測値に対して同時に推論モデルを訓練する。
実験結果から,この第2モデルの信号予測は,非学習に基づく最先端技術や,アーキテクチャ探索を伴わないNNモデルよりも優れていた。
論文 参考訳(メタデータ) (2021-05-17T12:19:22Z) - GELATO: Geometrically Enriched Latent Model for Offline Reinforcement
Learning [54.291331971813364]
オフライン強化学習アプローチは、近近法と不確実性認識法に分けられる。
本研究では,この2つを潜在変動モデルに組み合わせることのメリットを実証する。
提案したメトリクスは、分布サンプルのアウトの品質と、データ内のサンプルの不一致の両方を測定します。
論文 参考訳(メタデータ) (2021-02-22T19:42:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。