論文の概要: Learning Non-Linear Invariants for Unsupervised Out-of-Distribution Detection
- arxiv url: http://arxiv.org/abs/2407.04022v1
- Date: Thu, 4 Jul 2024 16:01:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-08 17:23:59.674577
- Title: Learning Non-Linear Invariants for Unsupervised Out-of-Distribution Detection
- Title(参考訳): 教師なしアウト・オブ・ディストリビューション検出のための非線形不変点の学習
- Authors: Lars Doorenbos, Raphael Sznitman, Pablo Márquez-Neila,
- Abstract要約: 非線型不変量学習が可能な正規化フロー様アーキテクチャからなるフレームワークを提案する。
提案手法は, 広範囲なU-OODベンチマークにおいて, 最先端の結果を得る。
- 参考スコア(独自算出の注目度): 5.019613806273252
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The inability of deep learning models to handle data drawn from unseen distributions has sparked much interest in unsupervised out-of-distribution (U-OOD) detection, as it is crucial for reliable deep learning models. Despite considerable attention, theoretically-motivated approaches are few and far between, with most methods building on top of some form of heuristic. Recently, U-OOD was formalized in the context of data invariants, allowing a clearer understanding of how to characterize U-OOD, and methods leveraging affine invariants have attained state-of-the-art results on large-scale benchmarks. Nevertheless, the restriction to affine invariants hinders the expressiveness of the approach. In this work, we broaden the affine invariants formulation to a more general case and propose a framework consisting of a normalizing flow-like architecture capable of learning non-linear invariants. Our novel approach achieves state-of-the-art results on an extensive U-OOD benchmark, and we demonstrate its further applicability to tabular data. Finally, we show our method has the same desirable properties as those based on affine invariants.
- Abstract(参考訳): 未知の分布から引き出されたデータを扱うディープラーニングモデルの欠如は、信頼できるディープラーニングモデルにとって不可欠であるため、教師なし配布(U-OOD)検出に大きな関心を呼んだ。
かなりの注意を払っているにもかかわらず、理論上動機付けられたアプローチはほとんどなく、ほとんどの手法はある種のヒューリスティックの上に構築されている。
近年、U-OODはデータ不変性の文脈で形式化され、U-OODのキャラクタリゼーションの仕方をより明確に理解できるようになった。
それでも、アフィン不変量に対する制限は、アプローチの表現性を妨げている。
本研究では, より一般的なケースにアフィン不変量の定式化を拡張し, 非線型不変量学習が可能な正規化フロー様アーキテクチャからなるフレームワークを提案する。
提案手法は,U-OOD ベンチマークによる最新結果を実現し,表計算データに適用可能であることを示す。
最後に,アフィン不変量に基づく手法と同じ望ましい性質を持つことを示す。
関連論文リスト
- Unsupervised Model Diagnosis [49.36194740479798]
本稿では,ユーザガイドを使わずに,意味論的対実的説明を生成するために,Unsupervised Model Diagnosis (UMO)を提案する。
提案手法は意味論における変化を特定し可視化し,その変化を広範囲なテキストソースの属性と照合する。
論文 参考訳(メタデータ) (2024-10-08T17:59:03Z) - Topology-Aware Dynamic Reweighting for Distribution Shifts on Graph [24.44321658238713]
グラフニューラルネットワーク(GNN)は、ノード分類タスクに広く使用されているが、トレーニングやテストノードが異なるディストリビューションから来ると、一般化に失敗することが多い。
トレーニング中にWasserstein空間の勾配流を通じて標本重量を動的に調整するTopology-Aware Dynamic Reweighting (TAR) フレームワークを導入する。
フレームワークの優位性は、4つのグラフOODデータセットと3つのクラス不均衡ノード分類データセットの標準テストによって実証される。
論文 参考訳(メタデータ) (2024-06-03T07:32:05Z) - A robust assessment for invariant representations [10.949263264442349]
IRMに基づく手法に特化して,不変性能を評価する新しい手法を提案する。
我々は、確率比を用いて、異なる環境にわたる不変予測器の条件予測の間の橋渡しを確立する。
提案する基準は、不変性能を評価するための堅牢な基盤を提供する。
論文 参考訳(メタデータ) (2024-04-07T20:05:49Z) - Learning Invariant Molecular Representation in Latent Discrete Space [52.13724532622099]
本稿では,分散シフトに対する不変性とロバスト性を示す分子表現を学習するための新しい枠組みを提案する。
我々のモデルは、様々な分布シフトが存在する場合に、最先端のベースラインに対してより強力な一般化を実現する。
論文 参考訳(メタデータ) (2023-10-22T04:06:44Z) - Contrastive Unsupervised Learning of World Model with Invariant Causal
Features [20.116319631571095]
共分散原理を用いて因果的特徴を学習する世界モデルを提案する。
対照的な教師なし学習を用いて、不変因果関係の特徴を学習する。
提案モデルは最先端のモデルと同等に動作する。
論文 参考訳(メタデータ) (2022-09-29T16:49:24Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Agree to Disagree: Diversity through Disagreement for Better
Transferability [54.308327969778155]
本稿では,D-BAT(Diversity-By-dis-Agreement Training)を提案する。
我々は、D-BATが一般化された相違の概念から自然に現れることを示す。
論文 参考訳(メタデータ) (2022-02-09T12:03:02Z) - Regularizing Variational Autoencoder with Diversity and Uncertainty
Awareness [61.827054365139645]
変分オートエンコーダ(VAE)は、償却変分推論に基づいて潜伏変数の後部を近似する。
よりディバースで不確実な潜在空間を学習するための代替モデルDU-VAEを提案する。
論文 参考訳(メタデータ) (2021-10-24T07:58:13Z) - Revisiting Design Choices in Model-Based Offline Reinforcement Learning [39.01805509055988]
オフライン強化学習により、エージェントは環境遷移の大規模な収集済みデータセットを利用して制御ポリシーを学習することができる。
本稿では、モデル数や仮想ロールアウト地平線など、他のハイパーパラメータとの相互作用を研究するための新しいプロトコルを比較し、設計する。
論文 参考訳(メタデータ) (2021-10-08T13:51:34Z) - Path Integrals for the Attribution of Model Uncertainties [0.18899300124593643]
本稿では,特徴ベクトルと反事実ベクトルを連結する分布内曲線に依存する新しいアルゴリズムを提案する。
我々は,様々な解像度で画像データセットをベンチマークし,解釈可能性を大幅に単純化することを示す。
論文 参考訳(メタデータ) (2021-07-19T11:07:34Z) - On the Benefits of Invariance in Neural Networks [56.362579457990094]
データ拡張によるトレーニングは、リスクとその勾配をよりよく見積もることを示し、データ拡張でトレーニングされたモデルに対して、PAC-Bayes一般化を提供する。
また,データ拡張と比べ,平均化は凸損失を伴う場合の一般化誤差を低減し,PAC-Bayes境界を狭めることを示した。
論文 参考訳(メタデータ) (2020-05-01T02:08:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。