論文の概要: Demystifying Randomly Initialized Networks for Evaluating Generative
Models
- arxiv url: http://arxiv.org/abs/2208.09218v1
- Date: Fri, 19 Aug 2022 08:43:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-22 17:23:31.256321
- Title: Demystifying Randomly Initialized Networks for Evaluating Generative
Models
- Title(参考訳): 生成モデル評価のためのランダム初期化ネットワークのデミスティファイション
- Authors: Junghyuk Lee, Jun-Hyuk Kim, Jong-Seok Lee
- Abstract要約: 生成モデルの評価は、主に、ある特徴空間における推定分布と基底真理分布の比較に基づいて行われる。
サンプルを情報的特徴に組み込むために、以前の研究では、分類に最適化された畳み込みニューラルネットワークを使用していた。
本稿では,ランダムな重み付きモデルの特徴空間を,訓練されたモデルと比較して厳密に検討する。
- 参考スコア(独自算出の注目度): 28.8899914083501
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Evaluation of generative models is mostly based on the comparison between the
estimated distribution and the ground truth distribution in a certain feature
space. To embed samples into informative features, previous works often use
convolutional neural networks optimized for classification, which is criticized
by recent studies. Therefore, various feature spaces have been explored to
discover alternatives. Among them, a surprising approach is to use a randomly
initialized neural network for feature embedding. However, the fundamental
basis to employ the random features has not been sufficiently justified. In
this paper, we rigorously investigate the feature space of models with random
weights in comparison to that of trained models. Furthermore, we provide an
empirical evidence to choose networks for random features to obtain consistent
and reliable results. Our results indicate that the features from random
networks can evaluate generative models well similarly to those from trained
networks, and furthermore, the two types of features can be used together in a
complementary way.
- Abstract(参考訳): 生成モデルの評価は、主に、ある特徴空間における推定分布と基底真理分布の比較に基づいて行われる。
サンプルを情報的特徴に組み込むために、以前の研究では、分類に最適化された畳み込みニューラルネットワークを使用していた。
そのため、様々な特徴空間を探索して代替品を発見することができる。
その中でも驚くべきアプローチは、ランダムに初期化されたニューラルネットワークを機能埋め込みに使用することだ。
しかし、ランダムな特徴を用いる基本的な根拠は十分に正当化されていない。
本稿では,ランダムな重み付きモデルの特徴空間を,訓練されたモデルと比較して厳密に検討する。
さらに,ランダムな特徴のネットワークを選択し,一貫性,信頼性の高い結果を得るための実証的なエビデンスを提供する。
以上の結果から,ランダムネットワークの特徴は,学習したネットワークとよく似た生成モデルの評価が可能であり,さらに,これら2つの特徴を相補的に併用できることが示唆された。
関連論文リスト
- Nonuniform random feature models using derivative information [10.239175197655266]
ニューラルネットワークの初期化のための不均一なデータ駆動パラメータ分布を近似する関数の微分データに基づいて提案する。
We address the case of Heaviside and ReLU activation function and their smooth approximations (Sigmoid and softplus)。
入力点における近似微分データに基づいて、これらの正確な密度を単純化し、非常に効率的なサンプリングを可能にし、複数のシナリオにおいて最適なネットワークに近いランダムな特徴モデルの性能をもたらすことを提案する。
論文 参考訳(メタデータ) (2024-10-03T01:30:13Z) - Diffusion Random Feature Model [0.0]
本稿では,拡散モデルにインスパイアされた深部ランダム特徴モデルを提案する。
サンプルデータの分布と真の分布との一般化境界をスコアマッチングの特性を用いて導出する。
ファッションMNISTデータセットとインストゥルメンタルオーディオデータに基づいてサンプルを生成し,本研究の検証を行った。
論文 参考訳(メタデータ) (2023-10-06T17:59:05Z) - Robust Nonparametric Hypothesis Testing to Understand Variability in
Training Neural Networks [5.8490454659691355]
本稿では,閾値決定前のネットワークの出力に基づく分類モデル間の密接度の新しい尺度を提案する。
我々の測度は、頑健な仮説テストフレームワークに基づいており、訓練されたモデルから派生した他の量に適応することができる。
論文 参考訳(メタデータ) (2023-10-01T01:44:35Z) - Learning to Learn with Generative Models of Neural Network Checkpoints [71.06722933442956]
ニューラルネットワークのチェックポイントのデータセットを構築し,パラメータの生成モデルをトレーニングする。
提案手法は,幅広い損失プロンプトに対するパラメータの生成に成功している。
我々は、教師付きおよび強化学習における異なるニューラルネットワークアーキテクチャとタスクに本手法を適用した。
論文 参考訳(メタデータ) (2022-09-26T17:59:58Z) - Representing Random Utility Choice Models with Neural Networks [0.0]
ディープラーニングの成功に触発されて、ニューラルネットワークに基づく離散選択モデルであるRUMnetを提案する。
RUMnetsはサンプル平均近似を用いてエージェントのランダムなユーティリティ関数を定式化する。
RUMnetsは、2つの実世界のデータセットの精度の観点から、いくつかの選択肢モデリングや機械学習手法と競合することがわかった。
論文 参考訳(メタデータ) (2022-07-26T13:12:22Z) - A Statistical-Modelling Approach to Feedforward Neural Network Model Selection [0.8287206589886881]
フィードフォワードニューラルネットワーク(FNN)は非線形回帰モデルと見なすことができる。
FNNのためのベイズ情報基準(BIC)を用いて,新しいモデル選択法を提案する。
サンプル外性能よりもBICを選択することは、真のモデルを回復する確率を増大させる。
論文 参考訳(メタデータ) (2022-07-09T11:07:04Z) - Sampling from Arbitrary Functions via PSD Models [55.41644538483948]
まず確率分布をモデル化し,そのモデルからサンプリングする。
これらのモデルでは, 少数の評価値を用いて, 高精度に多数の密度を近似することが可能であることが示され, それらのモデルから効果的にサンプルする簡単なアルゴリズムが提示される。
論文 参考訳(メタデータ) (2021-10-20T12:25:22Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Anomaly Detection of Time Series with Smoothness-Inducing Sequential
Variational Auto-Encoder [59.69303945834122]
Smoothness-Inducing Sequential Variational Auto-Encoder (SISVAE) モデルを提案する。
我々のモデルは、フレキシブルニューラルネットワークを用いて各タイムスタンプの平均と分散をパラメータ化する。
合成データセットと公開実世界のベンチマークの両方において,本モデルの有効性を示す。
論文 参考訳(メタデータ) (2021-02-02T06:15:15Z) - Toward Scalable and Unified Example-based Explanation and Outlier
Detection [128.23117182137418]
我々は,試行錯誤の予測に例ベースの説明を与えることのできる,プロトタイプベースの学生ネットワークのより広範な採用を論じる。
類似カーネル以外のプロトタイプベースのネットワークは,分類精度を損なうことなく,有意義な説明と有望な外乱検出結果が得られることを示す。
論文 参考訳(メタデータ) (2020-11-11T05:58:17Z) - Goal-directed Generation of Discrete Structures with Conditional
Generative Models [85.51463588099556]
本稿では,強化学習目標を直接最適化し,期待される報酬を最大化するための新しいアプローチを提案する。
提案手法は、ユーザ定義プロパティを持つ分子の生成と、所定の目標値を評価する短いピソン表現の同定という2つのタスクで検証する。
論文 参考訳(メタデータ) (2020-10-05T20:03:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。