論文の概要: Semantic uncertainty intervals for disentangled latent spaces
- arxiv url: http://arxiv.org/abs/2207.10074v1
- Date: Wed, 20 Jul 2022 17:58:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-21 12:32:35.615774
- Title: Semantic uncertainty intervals for disentangled latent spaces
- Title(参考訳): 不連続潜在空間に対する意味的不確かさ区間
- Authors: Swami Sankaranarayanan, Anastasios N. Angelopoulos, Stephen Bates,
Yaniv Romano, Phillip Isola
- Abstract要約: 基本生成モデルに対する真の意味的要素を含むことが保証される原則付き不確実区間を提供する。
この技術は、画像の超解像や画像補完といった逆問題において、意味論的、原則的、インスタンス適応的な不確実性を確実に伝達する。
- 参考スコア(独自算出の注目度): 30.254614465166245
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Meaningful uncertainty quantification in computer vision requires reasoning
about semantic information -- say, the hair color of the person in a photo or
the location of a car on the street. To this end, recent breakthroughs in
generative modeling allow us to represent semantic information in disentangled
latent spaces, but providing uncertainties on the semantic latent variables has
remained challenging. In this work, we provide principled uncertainty intervals
that are guaranteed to contain the true semantic factors for any underlying
generative model. The method does the following: (1) it uses quantile
regression to output a heuristic uncertainty interval for each element in the
latent space (2) calibrates these uncertainties such that they contain the true
value of the latent for a new, unseen input. The endpoints of these calibrated
intervals can then be propagated through the generator to produce interpretable
uncertainty visualizations for each semantic factor. This technique reliably
communicates semantically meaningful, principled, and instance-adaptive
uncertainty in inverse problems like image super-resolution and image
completion.
- Abstract(参考訳): コンピュータービジョンにおける意味のある不確実性定量化は、セマンティック情報(例えば、写真の人物の髪の色や路上の車の場所など)の推論を必要とする。
この目的のために、生成モデリングにおける最近のブレークスルーにより、不連続な潜在空間において意味情報を表現することができるが、意味的潜在変数に対する不確実性の提供は依然として困難である。
本研究では、基礎となる生成モデルに対する真の意味的要因を含むことが保証される原理的不確実性区間を提案する。
1) 量子回帰を用いて、潜在空間内の各要素に対するヒューリスティックな不確実性区間を出力する(2) 新たな未知入力に対する潜在性の真の値を含むようにこれらの不確実性を調整する。
これらの調整された間隔の終端はジェネレータを通して伝播し、各意味因子に対する解釈可能な不確実性可視化を生成する。
この手法は画像の超解像や画像補完といった逆問題において意味論的、原則的、インスタンス適応的な不確実性を確実に伝達する。
関連論文リスト
- Uncertainty-boosted Robust Video Activity Anticipation [72.14155465769201]
ビデオアクティビティの予測は、ロボットビジョンから自動運転まで幅広い応用可能性を受け入れることで、将来何が起こるかを予測することを目的としている。
近年の進展にもかかわらず、コンテンツ進化過程やイベントラベルの動的相関として反映されたデータ不確実性問題は、何らかの形で無視されている。
本研究では,予測結果の信頼性を示す不確実な値を生成する,不確実性を考慮した頑健なビデオアクティビティ予測フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-29T12:31:38Z) - Principal Uncertainty Quantification with Spatial Correlation for Image
Restoration Problems [35.46703074728443]
PUQ -- プリンシパル不確実性定量化 -- は、新しい定義であり、不確実性領域の対応する分析である。
経験的後部分布の主成分の周囲の不確実性区間を導出し,あいまいさ領域を形成する。
本手法は, カラー化, 超高分解能, 塗布実験により検証した。
論文 参考訳(メタデータ) (2023-05-17T11:08:13Z) - Probabilistic Contrastive Learning Recovers the Correct Aleatoric
Uncertainty of Ambiguous Inputs [21.38099300190815]
対照的に訓練されたエンコーダは、最近データ生成プロセスを反転させることが証明されている。
我々は、共通InfoNCEの目的とエンコーダを拡張して、ポイントの代わりに潜在分布を予測する。
論文 参考訳(メタデータ) (2023-02-06T15:30:08Z) - Weakly Supervised Representation Learning with Sparse Perturbations [82.39171485023276]
潜伏変数のスパース摂動によって生じる観測の監督が弱い場合、未知の連続潜伏分布の下で識別が達成可能であることを示す。
本稿では,この理論に基づく自然な推定手法を提案し,それを低次元の合成および画像に基づく実験で説明する。
論文 参考訳(メタデータ) (2022-06-02T15:30:07Z) - Learning Conditional Invariance through Cycle Consistency [60.85059977904014]
本稿では,データセットの変動の有意義な要因と独立な要因を識別する新しい手法を提案する。
提案手法は,対象プロパティと残りの入力情報に対する2つの別個の潜在部分空間を含む。
我々は,より意味のある因子を同定し,よりスペーサーや解釈可能なモデルに導く合成および分子データについて実証する。
論文 参考訳(メタデータ) (2021-11-25T17:33:12Z) - Where and What? Examining Interpretable Disentangled Representations [96.32813624341833]
解釈可能なバリエーションの獲得は、長い間、絡み合い学習の目標の1つだった。
独立性の仮定と異なり、解釈性は教師なしの設定での絡み合いを促進するために使われることは滅多にない。
本論文では, 解釈対象と解釈対象の2つの質問について検討し, 離散表現の解釈可能性を検討する。
論文 参考訳(メタデータ) (2021-04-07T11:22:02Z) - Learning Disentangled Representations with Latent Variation
Predictability [102.4163768995288]
本稿では,潜在不整合表現の変動予測可能性について述べる。
逆生成プロセス内では、潜時変動と対応する画像対の相互情報を最大化することにより、変動予測可能性を高める。
本研究では,潜在表現の絡み合いを測るために,基礎的構造的生成因子に依存しない評価指標を開発する。
論文 参考訳(メタデータ) (2020-07-25T08:54:26Z) - Modal Uncertainty Estimation via Discrete Latent Representation [4.246061945756033]
本稿では,インプットとアウトプットの1対1マッピングを,忠実な不確実性対策とともに学習するディープラーニングフレームワークを提案する。
我々のフレームワークは、現在の最先端手法よりもはるかに正確な不確実性推定を実証している。
論文 参考訳(メタデータ) (2020-07-25T05:29:34Z) - Learning to Manipulate Individual Objects in an Image [71.55005356240761]
本稿では,独立性および局所性を有する潜在因子を用いた生成モデルを学習する手法について述べる。
これは、潜伏変数の摂動が、オブジェクトに対応する合成画像の局所領域のみに影響を与えることを意味する。
他の教師なし生成モデルとは異なり、オブジェクトレベルのアノテーションを必要とせず、オブジェクト中心の操作を可能にする。
論文 参考訳(メタデータ) (2020-04-11T21:50:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。