論文の概要: Generating Unobserved Alternatives
- arxiv url: http://arxiv.org/abs/2011.01926v4
- Date: Tue, 1 Dec 2020 10:05:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 03:42:45.931436
- Title: Generating Unobserved Alternatives
- Title(参考訳): 観測不能な代替物の生成
- Authors: Shichong Peng and Ke Li
- Abstract要約: 複数の予測が正しいと判断できる問題を考えるが、そのうちの1つだけが監督対象として与えられる。
回帰法または条件付き生成モデルのいずれかを現在の設定に適用すると、入力毎に単一の予測しかできないモデルが得られることが多い。
我々は、同じ入力に対して複数の高品質な予測を生成できるアプローチを開発する。
- 参考スコア(独自算出の注目度): 6.827024253847846
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider problems where multiple predictions can be considered correct,
but only one of them is given as supervision. This setting differs from both
the regression and class-conditional generative modelling settings: in the
former, there is a unique observed output for each input, which is provided as
supervision; in the latter, there are many observed outputs for each input, and
many are provided as supervision. Applying either regression methods and
conditional generative models to the present setting often results in a model
that can only make a single prediction for each input. We explore several
problems that have this property and develop an approach that can generate
multiple high-quality predictions given the same input. As a result, it can be
used to generate high-quality outputs that are different from the observed
output.
- Abstract(参考訳): 複数の予測が正しいと判断できる問題を考えるが、その1つだけが監督対象として与えられる。
この設定は回帰モデルとクラス条件生成モデルの両方と異なり、前者は各入力に対してユニークな観測出力が提供され、後者は各入力に対して多くの観測出力が提供され、多くは監督として提供される。
回帰法と条件生成モデルのいずれかを現在の設定に適用すると、入力毎に単一の予測しかできないモデルになることが多い。
この特性を持ついくつかの問題を探索し、同じ入力に対して複数の高品質な予測を生成できるアプローチを開発する。
結果として、観測された出力と異なる高品質な出力を生成するために使用できる。
関連論文リスト
- Multiple Hypothesis Dropout: Estimating the Parameters of Multi-Modal
Output Distributions [22.431244647796582]
本稿では,複数出力関数(Multiple-Output function, MoM)の解法について, 新たな解法であるMultiple hypothesis Dropoutを用いて提案する。
教師付き学習問題に対する実験は、我々の手法がマルチモーダルな出力分布を再構築するための既存のソリューションよりも優れていることを示している。
教師なし学習問題に関するさらなる研究は、離散オートエンコーダ内の潜在後続分布のパラメータを推定することで、コードブックの効率、サンプル品質、精度、リコールを大幅に改善することを示している。
論文 参考訳(メタデータ) (2023-12-18T22:20:11Z) - PAMI: partition input and aggregate outputs for model interpretation [69.42924964776766]
本研究では、深層学習モデルが局所的な特徴を集約してモデル予測を行うという観察に基づいて、PAMIと呼ばれるシンプルで効果的な可視化フレームワークを提案する。
基本的な考え方は、入力の大多数を隠蔽し、元のモデル予測に対する保存された入力部の相対的な寄与として対応するモデル出力を使用することである。
複数のタスクに対する大規模な実験により,提案手法は,クラス固有の入力領域をより正確に見つけるために,既存の可視化手法よりも優れていることを確認した。
論文 参考訳(メタデータ) (2023-02-07T08:48:34Z) - Generative machine learning methods for multivariate ensemble
post-processing [2.266704492832475]
生成機械学習に基づく非パラメトリックなデータ駆動分散回帰モデルを提案する。
2つのケーススタディにおいて、我々の生成モデルは最先端の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2022-09-26T09:02:30Z) - Causal Graphs Underlying Generative Models: Path to Learning with
Limited Data [45.38541020492725]
我々は、事前訓練された生成オートエンコーダの潜伏符号に対する摂動実験を用いて、生成モデルによって示唆される因果グラフを明らかにする。
潜在符号間の構造方程式モデルをモデル化した効果的な因果グラフに適合することを示す。
ペプチド配列のデータセットに基づいて学習したRNNベースの生成オートエンコーダを用いて、学習した因果グラフを用いて、目に見えない配列の特定の特性を予測できることを実証した。
論文 参考訳(メタデータ) (2022-07-14T19:20:30Z) - Machine Learning for Multi-Output Regression: When should a holistic
multivariate approach be preferred over separate univariate ones? [62.997667081978825]
ランダムフォレストのような木に基づくアンサンブルは、統計学の手法の中で近代的な古典である。
これらの手法を広範囲なシミュレーションで比較し,多変量アンサンブル技術を用いた場合の主問題に答える。
論文 参考訳(メタデータ) (2022-01-14T08:44:25Z) - A Note on High-Probability versus In-Expectation Guarantees of
Generalization Bounds in Machine Learning [95.48744259567837]
統計的機械学習理論は、しばしば機械学習モデルの一般化を保証するよう試みる。
機械学習モデルのパフォーマンスに関する声明は、サンプリングプロセスを考慮する必要がある。
1つのステートメントを別のステートメントに変換する方法を示します。
論文 参考訳(メタデータ) (2020-10-06T09:41:35Z) - Goal-directed Generation of Discrete Structures with Conditional
Generative Models [85.51463588099556]
本稿では,強化学習目標を直接最適化し,期待される報酬を最大化するための新しいアプローチを提案する。
提案手法は、ユーザ定義プロパティを持つ分子の生成と、所定の目標値を評価する短いピソン表現の同定という2つのタスクで検証する。
論文 参考訳(メタデータ) (2020-10-05T20:03:13Z) - Ambiguity in Sequential Data: Predicting Uncertain Futures with
Recurrent Models [110.82452096672182]
逐次データによる曖昧な予測を扱うために,Multiple hypothesis Prediction(MHP)モデルの拡張を提案する。
また、不確実性を考慮するのに適した曖昧な問題に対する新しい尺度も導入する。
論文 参考訳(メタデータ) (2020-03-10T09:15:42Z) - AvgOut: A Simple Output-Probability Measure to Eliminate Dull Responses [97.50616524350123]
機能エンジニアリングなしで、どの発話やトークンが退屈であるかを動的に認識する対話モデルを構築します。
最初のモデルMinAvgOutは、各バッチの出力分布を通して、ダイバーシティスコアを直接最大化する。
第2のモデルであるラベルファインチューニング(LFT)は、多様性スコアによって連続的にスケールされたラベルをソースシーケンスにプリペイドし、多様性レベルを制御する。
3つ目のモデルであるRLは強化学習を採用し、多様性スコアを報奨信号として扱う。
論文 参考訳(メタデータ) (2020-01-15T18:32:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。