論文の概要: Generating Unobserved Alternatives
- arxiv url: http://arxiv.org/abs/2011.01926v4
- Date: Tue, 1 Dec 2020 10:05:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 03:42:45.931436
- Title: Generating Unobserved Alternatives
- Title(参考訳): 観測不能な代替物の生成
- Authors: Shichong Peng and Ke Li
- Abstract要約: 複数の予測が正しいと判断できる問題を考えるが、そのうちの1つだけが監督対象として与えられる。
回帰法または条件付き生成モデルのいずれかを現在の設定に適用すると、入力毎に単一の予測しかできないモデルが得られることが多い。
我々は、同じ入力に対して複数の高品質な予測を生成できるアプローチを開発する。
- 参考スコア(独自算出の注目度): 6.827024253847846
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider problems where multiple predictions can be considered correct,
but only one of them is given as supervision. This setting differs from both
the regression and class-conditional generative modelling settings: in the
former, there is a unique observed output for each input, which is provided as
supervision; in the latter, there are many observed outputs for each input, and
many are provided as supervision. Applying either regression methods and
conditional generative models to the present setting often results in a model
that can only make a single prediction for each input. We explore several
problems that have this property and develop an approach that can generate
multiple high-quality predictions given the same input. As a result, it can be
used to generate high-quality outputs that are different from the observed
output.
- Abstract(参考訳): 複数の予測が正しいと判断できる問題を考えるが、その1つだけが監督対象として与えられる。
この設定は回帰モデルとクラス条件生成モデルの両方と異なり、前者は各入力に対してユニークな観測出力が提供され、後者は各入力に対して多くの観測出力が提供され、多くは監督として提供される。
回帰法と条件生成モデルのいずれかを現在の設定に適用すると、入力毎に単一の予測しかできないモデルになることが多い。
この特性を持ついくつかの問題を探索し、同じ入力に対して複数の高品質な予測を生成できるアプローチを開発する。
結果として、観測された出力と異なる高品質な出力を生成するために使用できる。
関連論文リスト
- Conformal Generative Modeling with Improved Sample Efficiency through Sequential Greedy Filtering [55.15192437680943]
生成モデルは出力に対する厳密な統計的保証を欠いている。
厳密な統計的保証を満たす予測セットを生成する逐次共形予測法を提案する。
このことは、高い確率で予測セットが少なくとも1つの許容可能な(または有効な)例を含むことを保証している。
論文 参考訳(メタデータ) (2024-10-02T15:26:52Z) - Conformalized Late Fusion Multi-View Learning [18.928543069018865]
多視点学習の不確かさの定量化は、科学的な問題における多視点データの利用の増加によって動機づけられる。
個別のビューで個別の予測器を訓練し、単一のビュー予測が利用可能になった後にそれらを組み合わせます。
本稿では,共形予測を単一ビュー予測器上で個別に行う手法として,MVCP(Multi-View Conformal Prediction)を提案する。
論文 参考訳(メタデータ) (2024-05-25T14:11:01Z) - Multiple Hypothesis Dropout: Estimating the Parameters of Multi-Modal
Output Distributions [22.431244647796582]
本稿では,複数出力関数(Multiple-Output function, MoM)の解法について, 新たな解法であるMultiple hypothesis Dropoutを用いて提案する。
教師付き学習問題に対する実験は、我々の手法がマルチモーダルな出力分布を再構築するための既存のソリューションよりも優れていることを示している。
教師なし学習問題に関するさらなる研究は、離散オートエンコーダ内の潜在後続分布のパラメータを推定することで、コードブックの効率、サンプル品質、精度、リコールを大幅に改善することを示している。
論文 参考訳(メタデータ) (2023-12-18T22:20:11Z) - PAMI: partition input and aggregate outputs for model interpretation [69.42924964776766]
本研究では、深層学習モデルが局所的な特徴を集約してモデル予測を行うという観察に基づいて、PAMIと呼ばれるシンプルで効果的な可視化フレームワークを提案する。
基本的な考え方は、入力の大多数を隠蔽し、元のモデル予測に対する保存された入力部の相対的な寄与として対応するモデル出力を使用することである。
複数のタスクに対する大規模な実験により,提案手法は,クラス固有の入力領域をより正確に見つけるために,既存の可視化手法よりも優れていることを確認した。
論文 参考訳(メタデータ) (2023-02-07T08:48:34Z) - Generative machine learning methods for multivariate ensemble
post-processing [2.266704492832475]
生成機械学習に基づく非パラメトリックなデータ駆動分散回帰モデルを提案する。
2つのケーススタディにおいて、我々の生成モデルは最先端の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2022-09-26T09:02:30Z) - Machine Learning for Multi-Output Regression: When should a holistic
multivariate approach be preferred over separate univariate ones? [62.997667081978825]
ランダムフォレストのような木に基づくアンサンブルは、統計学の手法の中で近代的な古典である。
これらの手法を広範囲なシミュレーションで比較し,多変量アンサンブル技術を用いた場合の主問題に答える。
論文 参考訳(メタデータ) (2022-01-14T08:44:25Z) - Goal-directed Generation of Discrete Structures with Conditional
Generative Models [85.51463588099556]
本稿では,強化学習目標を直接最適化し,期待される報酬を最大化するための新しいアプローチを提案する。
提案手法は、ユーザ定義プロパティを持つ分子の生成と、所定の目標値を評価する短いピソン表現の同定という2つのタスクで検証する。
論文 参考訳(メタデータ) (2020-10-05T20:03:13Z) - Ambiguity in Sequential Data: Predicting Uncertain Futures with
Recurrent Models [110.82452096672182]
逐次データによる曖昧な予測を扱うために,Multiple hypothesis Prediction(MHP)モデルの拡張を提案する。
また、不確実性を考慮するのに適した曖昧な問題に対する新しい尺度も導入する。
論文 参考訳(メタデータ) (2020-03-10T09:15:42Z) - AvgOut: A Simple Output-Probability Measure to Eliminate Dull Responses [97.50616524350123]
機能エンジニアリングなしで、どの発話やトークンが退屈であるかを動的に認識する対話モデルを構築します。
最初のモデルMinAvgOutは、各バッチの出力分布を通して、ダイバーシティスコアを直接最大化する。
第2のモデルであるラベルファインチューニング(LFT)は、多様性スコアによって連続的にスケールされたラベルをソースシーケンスにプリペイドし、多様性レベルを制御する。
3つ目のモデルであるRLは強化学習を採用し、多様性スコアを報奨信号として扱う。
論文 参考訳(メタデータ) (2020-01-15T18:32:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。