論文の概要: Seeing the Many: Exploring Parameter Distributions Conditioned on Features in Surrogates
- arxiv url: http://arxiv.org/abs/2508.13088v1
- Date: Mon, 18 Aug 2025 17:01:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:11.495456
- Title: Seeing the Many: Exploring Parameter Distributions Conditioned on Features in Surrogates
- Title(参考訳): 多数を見る:サロゲートの特徴を考慮したパラメータ分布の探索
- Authors: Xiaohan Wang, Zhimin Li, Joshua A. Levine, Matthew Berger,
- Abstract要約: 逆問題は探索として理解でき、そこではサロゲート出力が指定された特徴を含むパラメータを見つけることを目的としている。
本研究の目的は,与えられた出力特性を生成する可能性のある入力パラメータの分布をモデル化し,可視化することである。
- 参考スコア(独自算出の注目度): 26.528839017483982
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, neural surrogate models have emerged as a compelling alternative to traditional simulation workflows. This is accomplished by modeling the underlying function of scientific simulations, removing the need to run expensive simulations. Beyond just mapping from input parameter to output, surrogates have also been shown useful for inverse problems: output to input parameters. Inverse problems can be understood as search, where we aim to find parameters whose surrogate outputs contain a specified feature. Yet finding these parameters can be costly, especially for high-dimensional parameter spaces. Thus, existing surrogate-based solutions primarily focus on finding a small set of matching parameters, in the process overlooking the broader picture of plausible parameters. Our work aims to model and visualize the distribution of possible input parameters that produce a given output feature. To achieve this goal, we aim to address two challenges: (1) the approximation error inherent in the surrogate model and (2) forming the parameter distribution in an interactive manner. We model error via density estimation, reporting high density only if a given parameter configuration is close to training parameters, measured both over the input and output space. Our density estimate is used to form a prior belief on parameters, and when combined with a likelihood on features, gives us an efficient way to sample plausible parameter configurations that generate a target output feature. We demonstrate the usability of our solution through a visualization interface by performing feature-driven parameter analysis over the input parameter space of three simulation datasets. Source code is available at https://github.com/matthewberger/seeing-the-many
- Abstract(参考訳): 近年、ニューラルサロゲートモデルは従来のシミュレーションワークフローに代わる魅力的な選択肢として現れている。
これは、科学シミュレーションの基盤となる機能をモデル化し、高価なシミュレーションを実行する必要をなくすことによって達成される。
入力パラメータから出力へのマッピング以外にも、サロゲートは逆問題にも有用であることが示されている。
逆問題は探索として理解でき、そこではサロゲート出力が指定された特徴を含むパラメータを見つけることを目的としている。
しかし、これらのパラメータを見つけることは、特に高次元のパラメータ空間の場合、費用がかかる。
したがって、既存のサロゲートベースのソリューションは主に、可算パラメータのより広い図を見渡すプロセスにおいて、マッチングパラメータの小さなセットを見つけることに焦点を当てている。
本研究の目的は,与えられた出力特性を生成する可能性のある入力パラメータの分布をモデル化し,可視化することである。
本研究の目的は,(1)サロゲートモデル固有の近似誤差と(2)パラメータ分布を対話的に形成することである。
パラメータ設定がトレーニングパラメータに近く、入力空間と出力空間の両方で測定された場合のみ、高密度を報告し、密度推定による誤差をモデル化する。
我々の密度推定は、パラメータに関する事前の信念を形成するために使用され、特徴に関する可能性と組み合わせることで、ターゲットの出力特徴を生成する可算パラメータ構成をサンプリングする効率的な方法が得られます。
本稿では,3つのシミュレーションデータセットの入力パラメータ空間上で特徴駆動パラメータ解析を行うことにより,可視化インタフェースによるソリューションのユーザビリティを実証する。
ソースコードはhttps://github.com/matthewberger/seeing-the-manyで入手できる。
関連論文リスト
- Continual Adaptation: Environment-Conditional Parameter Generation for Object Detection in Dynamic Scenarios [54.58186816693791]
環境は時間と空間によって常に変化し、クローズドセットの仮定に基づいて訓練された物体検出器にとって重要な課題となる。
そこで本研究では,微調整過程をパラメータ生成に変換する機構を提案する。
特に,2経路LoRAベースのドメイン認識アダプタを最初に設計し,特徴をドメイン不変およびドメイン固有コンポーネントに分解する。
論文 参考訳(メタデータ) (2025-06-30T17:14:12Z) - Function Gradient Approximation with Random Shallow ReLU Networks with Control Applications [0.0]
ニューラルネットワークは、制御における未知の関数を近似するために広く使われている。
いくつかのアプリケーション、特に連続時間値関数近似は、ネットワークが未知の関数とその勾配の両方を十分な精度で近似することを要求する。
我々は、ランダムに生成された入力パラメータとトレーニングされた出力パラメータが$O(log(m)/m)1/2の誤差の勾配をもたらし、さらに、以前の作業から定数を改善することを示す。
論文 参考訳(メタデータ) (2024-10-07T14:26:49Z) - Scaling Exponents Across Parameterizations and Optimizers [94.54718325264218]
本稿では,先行研究における重要な仮定を考察し,パラメータ化の新たな視点を提案する。
私たちの経験的調査には、3つの組み合わせでトレーニングされた数万のモデルが含まれています。
最高の学習率のスケーリング基準は、以前の作業の仮定から除外されることがよくあります。
論文 参考訳(メタデータ) (2024-07-08T12:32:51Z) - Parameter-efficient Tuning of Large-scale Multimodal Foundation Model [68.24510810095802]
我々はこれらの課題を克服するために、クロスモーダル転送(Aurora)のための優雅なプロンプトフレームワークを提案する。
既存のアーキテクチャの冗長性を考慮すると、まずモード近似を用いて0.1Mのトレーニング可能なパラメータを生成し、マルチモーダルプロンプトチューニングを実装する。
6つのクロスモーダルベンチマークの徹底的な評価は、最先端のベンチマークを上回るだけでなく、完全な微調整アプローチよりも優れていることを示している。
論文 参考訳(メタデータ) (2023-05-15T06:40:56Z) - A Closer Look at Parameter-Efficient Tuning in Diffusion Models [39.52999446584842]
安定拡散のような大規模拡散モデルは強力であり、様々な現実世界の応用を見出すことができる。
学習可能な小モジュールを挿入することにより,大規模拡散モデルにおけるパラメータ効率の調整について検討する。
論文 参考訳(メタデータ) (2023-03-31T16:23:29Z) - On the Effectiveness of Parameter-Efficient Fine-Tuning [79.6302606855302]
現在、多くの研究が、パラメータのごく一部のみを微調整し、異なるタスク間で共有されるパラメータのほとんどを保持することを提案している。
これらの手法は, いずれも細粒度モデルであり, 新たな理論的解析を行う。
我々の理論に根ざした空間性の有効性にもかかわらず、調整可能なパラメータをどう選ぶかという問題はまだ未解決のままである。
論文 参考訳(メタデータ) (2022-11-28T17:41:48Z) - On the Parameter Combinations That Matter and on Those That do Not [0.0]
モデルパラメータの非識別性を特徴付けるためのデータ駆動型手法を提案する。
Diffusion Mapsとその拡張を利用することで、動的出力の振る舞いを特徴づけるために必要なパラメータの最小の組み合わせを発見する。
論文 参考訳(メタデータ) (2021-10-13T13:46:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。