論文の概要: Shaken, and Stirred: Long-Range Dependencies Enable Robust Outlier
Detection with PixelCNN++
- arxiv url: http://arxiv.org/abs/2208.13579v1
- Date: Mon, 29 Aug 2022 13:17:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-30 14:21:19.513799
- Title: Shaken, and Stirred: Long-Range Dependencies Enable Robust Outlier
Detection with PixelCNN++
- Title(参考訳): Shaken, and Stirred: PixelCNN++でロバスト外乱検出を可能にする長距離依存性
- Authors: Barath Mohan Umapathi, Kushal Chauhan, Pradeep Shenoy, Devarajan
Sridharan
- Abstract要約: 深層生成モデルによって生成される類似度は、低レベル入力統計によってバイアスを受ける。
PixelCNN++のバイアスは、主にローカル依存に基づく予測から生じる。
低レベルのバイアスを緩和し、PixelCNN++の可能性に対する長距離依存性の寄与を分離する変換の2つのファミリを提案する。
- 参考スコア(独自算出の注目度): 6.736754991468853
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reliable outlier detection is critical for real-world applications of deep
learning models. Likelihoods produced by deep generative models, although
extensively studied, have been largely dismissed as being impractical for
outlier detection. For one, deep generative model likelihoods are readily
biased by low-level input statistics. Second, many recent solutions for
correcting these biases are computationally expensive or do not generalize well
to complex, natural datasets. Here, we explore outlier detection with a
state-of-the-art deep autoregressive model: PixelCNN++. We show that biases in
PixelCNN++ likelihoods arise primarily from predictions based on local
dependencies. We propose two families of bijective transformations that we term
"shaking" and "stirring", which ameliorate low-level biases and isolate the
contribution of long-range dependencies to the PixelCNN++ likelihood. These
transformations are computationally inexpensive and readily applied at
evaluation time. We evaluate our approaches extensively with five grayscale and
six natural image datasets and show that they achieve or exceed
state-of-the-art outlier detection performance. In sum, lightweight remedies
suffice to achieve robust outlier detection on images with deep generative
models.
- Abstract(参考訳): ディープラーニングモデルの現実的な応用には、信頼性の高い外れ値検出が不可欠である。
深層生成モデルによって生産される類似物は、広く研究されているが、主に外乱検出には実用的でないとして否定されている。
例えば、深い生成モデルの可能性は、低レベルの入力統計によって容易に偏る。
第二に、これらのバイアスを修正するための最近の多くのソリューションは計算コストが高く、複雑な自然データセットにうまく一般化していない。
本稿では,現在最先端の深層自己回帰モデルであるPixelCNN++を用いて,外乱検出について検討する。
PixelCNN++のバイアスは、主にローカル依存に基づく予測から生じる。
低レベルのバイアスを緩和し、pixelcnn++の可能性に対する長距離依存の寄与を分離する「シェーキング」と「スティリング」と呼ばれる単射変換の2つのファミリーを提案する。
これらの変換は計算コストが低く、評価時に容易に適用できる。
5つのgrayscaleと6つの自然画像データセットを用いて、このアプローチを広範囲に評価し、最先端の異常検出性能を達成または超えていることを示す。
要約すると、軽量な修正は、深い生成モデルを持つ画像上でロバストな外れ値検出を実現するために十分である。
関連論文リスト
- Open-Set Deepfake Detection: A Parameter-Efficient Adaptation Method with Forgery Style Mixture [58.60915132222421]
本稿では,顔偽造検出に汎用的かつパラメータ効率の高い手法を提案する。
フォージェリー・ソース・ドメインの多様性を増大させるフォージェリー・ミックス・フォーミュレーションを設計する。
設計したモデルは、トレーニング可能なパラメータを著しく減らし、最先端の一般化性を実現する。
論文 参考訳(メタデータ) (2024-08-23T01:53:36Z) - Exploring the Effectiveness of Dataset Synthesis: An application of
Apple Detection in Orchards [68.95806641664713]
本研究では,リンゴ樹の合成データセットを生成するための安定拡散2.1-baseの有用性について検討する。
我々は、現実世界のリンゴ検出データセットでリンゴを予測するために、YOLOv5mオブジェクト検出モデルを訓練する。
その結果、実世界の画像でトレーニングされたベースラインモデルと比較して、生成データでトレーニングされたモデルはわずかに性能が劣っていることがわかった。
論文 参考訳(メタデータ) (2023-06-20T09:46:01Z) - Semi-supervised Deep Learning for Image Classification with Distribution
Mismatch: A Survey [1.5469452301122175]
ディープラーニングモデルは、予測モデルをトレーニングするためにラベル付き観測の豊富な部分に依存します。
ラベル付きデータ観測を収集することは高価であり、ディープラーニングモデルの使用は理想的ではない。
多くの状況では、異なる非競合データソースが利用可能である。
これにより、ラベル付きデータセットと非ラベル付きデータセットの間にかなりの分散ミスマッチが発生するリスクが生じる。
論文 参考訳(メタデータ) (2022-03-01T02:46:00Z) - X-model: Improving Data Efficiency in Deep Learning with A Minimax Model [78.55482897452417]
ディープラーニングにおける分類と回帰設定の両面でのデータ効率の向上を目標とする。
両世界の力を生かすために,我々は新しいX-モデルを提案する。
X-モデルは、特徴抽出器とタスク固有のヘッドの間でミニマックスゲームを行う。
論文 参考訳(メタデータ) (2021-10-09T13:56:48Z) - Efficient remedies for outlier detection with variational autoencoders [8.80692072928023]
深層生成モデルによって計算される類似度は、ラベルなしデータによる外れ値検出の候補メトリックである。
理論的に定位された補正は、VAE推定値による鍵バイアスを容易に改善することを示す。
また,VAEのアンサンブル上で計算される確率の分散により,ロバストな外乱検出が可能となることを示す。
論文 参考訳(メタデータ) (2021-08-19T16:00:58Z) - Robust Out-of-Distribution Detection on Deep Probabilistic Generative
Models [0.06372261626436676]
アウト・オブ・ディストリビューション(OOD)検出は機械学習システムにおいて重要な課題である。
深い確率的生成モデルは、データサンプルの可能性を推定することによって、OODの検出を容易にする。
本稿では,外周露光を伴わない新しい検出指標を提案する。
論文 参考訳(メタデータ) (2021-06-15T06:36:10Z) - Contemplating real-world object classification [53.10151901863263]
Barbuらが最近提案したObjectNetデータセットを再分析した。
日常の状況に物を含むこと。
分離されたオブジェクトにディープモデルを適用すると、元の論文のようにシーン全体ではなく、約20~30%の性能改善が得られます。
論文 参考訳(メタデータ) (2021-03-08T23:29:59Z) - Goal-directed Generation of Discrete Structures with Conditional
Generative Models [85.51463588099556]
本稿では,強化学習目標を直接最適化し,期待される報酬を最大化するための新しいアプローチを提案する。
提案手法は、ユーザ定義プロパティを持つ分子の生成と、所定の目標値を評価する短いピソン表現の同定という2つのタスクで検証する。
論文 参考訳(メタデータ) (2020-10-05T20:03:13Z) - Understanding Anomaly Detection with Deep Invertible Networks through
Hierarchies of Distributions and Features [4.25227087152716]
畳み込みネットワークは、任意の自然言語データセットでトレーニングされた場合、同様の低レベルの特徴分布を学習する。
inlier とoutlier の識別的特徴が高いレベルにある場合、異常検出は特に困難になる。
モデルバイアスとドメインが高レベルの差を検出する前に負の影響を除去する2つの方法を提案する。
論文 参考訳(メタデータ) (2020-06-18T20:56:14Z) - Diversity inducing Information Bottleneck in Model Ensembles [73.80615604822435]
本稿では,予測の多様性を奨励することで,ニューラルネットワークの効果的なアンサンブルを生成する問題をターゲットにする。
そこで本研究では,潜伏変数の学習における逆損失の多様性を明示的に最適化し,マルチモーダルデータのモデリングに必要な出力予測の多様性を得る。
最も競争力のあるベースラインと比較して、データ分布の変化の下で、分類精度が大幅に向上した。
論文 参考訳(メタデータ) (2020-03-10T03:10:41Z) - Granular Learning with Deep Generative Models using Highly Contaminated
Data [0.0]
品質問題のある実世界の画像データセット上で, 微粒な意味での異常検出のための深部生成モデルの最近の進歩を活用するためのアプローチを詳述する。
このアプローチは完全に教師なし(アノテーションは使用できない)だが、質的に画像の正確なセマンティックラベリングを提供するために示される。
論文 参考訳(メタデータ) (2020-01-06T23:22:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。