論文の概要: Understanding Likelihood of Normalizing Flow and Image Complexity
through the Lens of Out-of-Distribution Detection
- arxiv url: http://arxiv.org/abs/2402.10477v1
- Date: Fri, 16 Feb 2024 06:56:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-19 17:18:35.091257
- Title: Understanding Likelihood of Normalizing Flow and Image Complexity
through the Lens of Out-of-Distribution Detection
- Title(参考訳): 分布検出レンズによる流れの正規化可能性と画像複雑性の把握
- Authors: Genki Osada, Tsubasa Takahashi, Takashi Nishide
- Abstract要約: より複雑な画像は潜在空間の高密度領域に集中し、正規化フロー(NF)において高い可能性を与える仮説を提案する。
我々は5つのNFアーキテクチャの有効性を実験的に証明し、その可能性は信頼できないと結論付けた。
画像の複雑さを独立変数として扱うことにより,この問題を緩和できることを示す。
- 参考スコア(独自算出の注目度): 5.279257531335347
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Out-of-distribution (OOD) detection is crucial to safety-critical machine
learning applications and has been extensively studied. While recent studies
have predominantly focused on classifier-based methods, research on deep
generative model (DGM)-based methods have lagged relatively. This disparity may
be attributed to a perplexing phenomenon: DGMs often assign higher likelihoods
to unknown OOD inputs than to their known training data. This paper focuses on
explaining the underlying mechanism of this phenomenon. We propose a hypothesis
that less complex images concentrate in high-density regions in the latent
space, resulting in a higher likelihood assignment in the Normalizing Flow
(NF). We experimentally demonstrate its validity for five NF architectures,
concluding that their likelihood is untrustworthy. Additionally, we show that
this problem can be alleviated by treating image complexity as an independent
variable. Finally, we provide evidence of the potential applicability of our
hypothesis in another DGM, PixelCNN++.
- Abstract(参考訳): アウト・オブ・ディストリビューション(OOD)検出は、安全クリティカルな機械学習アプリケーションに不可欠であり、広く研究されている。
近年,分類器に基づく手法を中心に研究が進められているが,深層生成モデル(DGM)に基づく手法の研究は比較的少ない。
DGMは未知のOOD入力に対して、既知のトレーニングデータよりも高い確率を割り当てることが多い。
本稿では,この現象のメカニズムを説明することに焦点を当てる。
本研究では,低複素画像が潜在空間の高密度領域に集中し,正規化フロー (nf) の確率が高まるという仮説を提案する。
我々は5つのNFアーキテクチャの有効性を実験的に証明し、その可能性は信頼できないと結論付けた。
さらに,画像の複雑性を独立変数として扱うことにより,この問題を緩和できることを示す。
最後に、別のDGMであるPixelCNN++における仮説の適用可能性を示す。
関連論文リスト
- Causal Diffusion Autoencoders: Toward Counterfactual Generation via Diffusion Probabilistic Models [17.124075103464392]
拡散モデル(DPM)は高品質の画像生成における最先端技術となっている。
DPMは、解釈可能な意味論や制御可能な意味論を持たない任意の雑音潜在空間を持つ。
本稿では,拡散に基づく因果表現学習フレームワークCausalDiffAEを提案する。
論文 参考訳(メタデータ) (2024-04-27T00:09:26Z) - A Versatile Causal Discovery Framework to Allow Causally-Related Hidden
Variables [28.51579090194802]
因果ネットワークの至る所で、因果関係の隠れ変数の存在を許容する因果発見のための新しい枠組みを提案する。
ランクに基づく潜在因果探索アルゴリズム(RLCD)を開発し、隠れ変数を効率よく探索し、その濃度を判定し、測定値と隠れ変数の両方に対して因果構造全体を発見する。
合成・実世界のパーソナリティデータセットを用いた実験結果から,有限サンプルケースにおける提案手法の有効性が示された。
論文 参考訳(メタデータ) (2023-12-18T07:57:39Z) - Assessing the capacity of a denoising diffusion probabilistic model to
reproduce spatial context [7.289988602420457]
拡散確率モデル(DDPM)は生成逆数ネットワーク(GAN)と比較して画像合成性能が優れていることを示す
これらの主張は、自然画像用に設計されたアンサンブルベースの手法や、構造的類似性などの画像品質の従来の尺度を用いて評価されている。
本研究は,空間文脈学習におけるDDPMの能力に関する新たな重要な知見を明らかにするものである。
論文 参考訳(メタデータ) (2023-09-19T17:58:35Z) - Nonlinearity, Feedback and Uniform Consistency in Causal Structural
Learning [0.8158530638728501]
Causal Discoveryは、観測データから因果構造を学習するための自動探索手法を見つけることを目的としている。
この論文は因果発見における2つの疑問に焦点をあてる: (i) k-三角形の忠実性の代替定義を提供すること (i) (i) はガウス分布の族に適用されるとき強い忠実性よりも弱いこと (ii) 修正版の強忠実性が成り立つという仮定のもとに。
論文 参考訳(メタデータ) (2023-08-15T01:23:42Z) - Causality-Based Multivariate Time Series Anomaly Detection [63.799474860969156]
我々は、因果的観点から異常検出問題を定式化し、多変量データを生成するための通常の因果的メカニズムに従わない事例として、異常を考察する。
次に、まずデータから因果構造を学習し、次に、あるインスタンスが局所因果機構に対して異常であるかどうかを推定する因果検出手法を提案する。
我々は、実世界のAIOpsアプリケーションに関するケーススタディと同様に、シミュレートされたデータセットとパブリックなデータセットの両方を用いて、私たちのアプローチを評価します。
論文 参考訳(メタデータ) (2022-06-30T06:00:13Z) - Weakly Supervised Representation Learning with Sparse Perturbations [82.39171485023276]
潜伏変数のスパース摂動によって生じる観測の監督が弱い場合、未知の連続潜伏分布の下で識別が達成可能であることを示す。
本稿では,この理論に基づく自然な推定手法を提案し,それを低次元の合成および画像に基づく実験で説明する。
論文 参考訳(メタデータ) (2022-06-02T15:30:07Z) - Principled Knowledge Extrapolation with GANs [92.62635018136476]
我々は,知識外挿の新たな視点から,対実合成を研究する。
本稿では, 知識外挿問題に対処するために, クローズド形式判別器を用いた対角ゲームが利用可能であることを示す。
提案手法は,多くのシナリオにおいて,エレガントな理論的保証と優れた性能の両方を享受する。
論文 参考訳(メタデータ) (2022-05-21T08:39:42Z) - Provable RL with Exogenous Distractors via Multistep Inverse Dynamics [85.52408288789164]
実世界の強化学習(RL)の応用は、メガピクセルカメラから生成されたような高次元の観察にエージェントが対処する必要がある。
従来の研究は表現学習でこのような問題に対処しており、エージェントは生の観察から内因性、潜伏状態の情報を確実に抽出することができる。
しかし、このような手法は観測において時間的に相関するノイズの存在下では失敗する可能性がある。
論文 参考訳(メタデータ) (2021-10-17T15:21:27Z) - Discovering Latent Causal Variables via Mechanism Sparsity: A New
Principle for Nonlinear ICA [81.4991350761909]
ICA(Independent component analysis)は、この目的を定式化し、実用的な応用のための推定手順を提供する手法の集合を指す。
潜伏変数は、潜伏機構をスパースに正則化すれば、置換まで復元可能であることを示す。
論文 参考訳(メタデータ) (2021-07-21T14:22:14Z) - The Hidden Uncertainty in a Neural Networks Activations [105.4223982696279]
ニューラルネットワークの潜在表現の分布は、アウト・オブ・ディストリビューション(OOD)データの検出に成功している。
本研究は、この分布が、モデルの不確実性と相関しているかどうかを考察し、新しい入力に一般化する能力を示す。
論文 参考訳(メタデータ) (2020-12-05T17:30:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。