論文の概要: Deep Parameter Interpolation for Scalar Conditioning
- arxiv url: http://arxiv.org/abs/2511.21028v1
- Date: Wed, 26 Nov 2025 03:52:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-27 18:37:58.953135
- Title: Deep Parameter Interpolation for Scalar Conditioning
- Title(参考訳): スカラーコンディショニングのためのディープパラメータ補間
- Authors: Chicago Y. Park, Michael T. McCann, Cristina Garcia-Cardona, Brendt Wohlberg, Ulugbek S. Kamilov,
- Abstract要約: Deepパラメータ(ディープパラメータ、DPI)は、既存のディープニューラルネットワークアーキテクチャをスカラー入力を受け入れるものに変換する汎用的な方法である。
提案手法は,拡散モデルと流れマッチングモデルの両方において,デノナイズ性能を改善し,サンプル品質を向上させることを実証する。
- 参考スコア(独自算出の注目度): 9.15040016273831
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose deep parameter interpolation (DPI), a general-purpose method for transforming an existing deep neural network architecture into one that accepts an additional scalar input. Recent deep generative models, including diffusion models and flow matching, employ a single neural network to learn a time- or noise level-dependent vector field. Designing a network architecture to accurately represent this vector field is challenging because the network must integrate information from two different sources: a high-dimensional vector (usually an image) and a scalar. Common approaches either encode the scalar as an additional image input or combine scalar and vector information in specific network components, which restricts architecture choices. Instead, we propose to maintain two learnable parameter sets within a single network and to introduce the scalar dependency by dynamically interpolating between the parameter sets based on the scalar value during training and sampling. DPI is a simple, architecture-agnostic method for adding scalar dependence to a neural network. We demonstrate that our method improves denoising performance and enhances sample quality for both diffusion and flow matching models, while achieving computational efficiency comparable to standard scalar conditioning techniques. Code is available at https://github.com/wustl-cig/parameter_interpolation.
- Abstract(参考訳): 本稿では,既存のディープニューラルネットワークアーキテクチャをスカラー入力を付加する手法であるディープパラメータ補間(DPI)を提案する。
拡散モデルやフローマッチングを含む最近の深層生成モデルでは、時間やノイズに依存したベクトル場を学ぶために単一のニューラルネットワークを使用している。
このベクトル場を正確に表現するためのネットワークアーキテクチャの設計は、高次元ベクトル(通常画像)とスカラー(スカラー)という2つの異なる情報源からの情報を統合する必要があるため、難しい。
一般的なアプローチでは、スカラーを追加のイメージ入力としてエンコードするか、特定のネットワークコンポーネントでスカラー情報とベクトル情報を組み合わせ、アーキテクチャの選択を制限する。
代わりに,学習可能な2つのパラメータセットを1つのネットワーク内に保持し,トレーニングとサンプリング中にスカラー値に基づいてパラメータセットを動的に補間することによりスカラー依存性を導入することを提案する。
DPIは、ニューラルネットワークにスカラー依存を追加するための、単純でアーキテクチャに依存しない方法である。
提案手法は,標準的なスカラー条件付け手法に匹敵する計算効率を実現しつつ,分散モデルとフローマッチングモデルの両方において,性能向上とサンプル品質の向上を図っている。
コードはhttps://github.com/wustl-cig/parameter_interpolationで公開されている。
関連論文リスト
- WavPool: A New Block for Deep Neural Networks [2.2311710049695446]
マルチレゾリューション・パーセプトロンと呼ばれる新しいウェーブレット変換型ネットワークアーキテクチャを導入する。
プーリング層を追加することで、新しいネットワークブロック、WavPoolを作成します。
WavPoolはパラメータを減らしながら同様の多層パーセプトロンを上回り、CIFAR-10の相対的精度で同等の畳み込みニューラルネットワークを10%上回る。
論文 参考訳(メタデータ) (2023-06-14T20:35:01Z) - NAR-Former: Neural Architecture Representation Learning towards Holistic
Attributes Prediction [37.357949900603295]
本稿では,属性の全体的推定に使用できるニューラルネットワーク表現モデルを提案する。
実験の結果,提案するフレームワークは,セルアーキテクチャとディープニューラルネットワーク全体の遅延特性と精度特性を予測できることがわかった。
論文 参考訳(メタデータ) (2022-11-15T10:15:21Z) - Learning to Learn with Generative Models of Neural Network Checkpoints [71.06722933442956]
ニューラルネットワークのチェックポイントのデータセットを構築し,パラメータの生成モデルをトレーニングする。
提案手法は,幅広い損失プロンプトに対するパラメータの生成に成功している。
我々は、教師付きおよび強化学習における異なるニューラルネットワークアーキテクチャとタスクに本手法を適用した。
論文 参考訳(メタデータ) (2022-09-26T17:59:58Z) - Variable Bitrate Neural Fields [75.24672452527795]
本稿では,特徴格子を圧縮し,メモリ消費を最大100倍に削減する辞書手法を提案する。
辞書の最適化をベクトル量子化オートデコーダ問題として定式化し、直接監督できない空間において、エンドツーエンドの離散神経表現を学習する。
論文 参考訳(メタデータ) (2022-06-15T17:58:34Z) - Dynamically-Scaled Deep Canonical Correlation Analysis [77.34726150561087]
カノニカル相関解析 (CCA) は, 2つのビューの特徴抽出手法である。
本稿では,入力依存の正準相関モデルをトレーニングするための新しい動的スケーリング手法を提案する。
論文 参考訳(メタデータ) (2022-03-23T12:52:49Z) - a novel attention-based network for fast salient object detection [14.246237737452105]
現在の有向物体検出ネットワークにおいて、最も一般的な方法はU字型構造を用いることである。
3つのコントリビューションを持つ新しい深層畳み込みネットワークアーキテクチャを提案する。
提案手法は, 精度を損なうことなく, 原サイズの1/3まで圧縮できることを示した。
論文 参考訳(メタデータ) (2021-12-20T12:30:20Z) - Dynamic Graph: Learning Instance-aware Connectivity for Neural Networks [78.65792427542672]
動的グラフネットワーク(DG-Net)は完全な有向非巡回グラフであり、ノードは畳み込みブロックを表し、エッジは接続経路を表す。
ネットワークの同じパスを使用する代わりに、DG-Netは各ノードの機能を動的に集約する。
論文 参考訳(メタデータ) (2020-10-02T16:50:26Z) - Ensembled sparse-input hierarchical networks for high-dimensional
datasets [8.629912408966145]
サンプルサイズが小さい環境では,高密度ニューラルネットワークが実用的なデータ解析ツールであることを示す。
提案手法は,L1-ペナルティパラメータを2つだけ調整することで,ネットワーク構造を適切に調整する。
EASIER-netは、異なるサイズの実世界のデータセットのコレクションにおいて、データ適応方式でネットワークアーキテクチャを選択し、平均的なオフザシェルフ手法よりも高い予測精度を達成した。
論文 参考訳(メタデータ) (2020-05-11T02:08:53Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。