論文の概要: Task Agnostic and Post-hoc Unseen Distribution Detection
- arxiv url: http://arxiv.org/abs/2207.13083v1
- Date: Tue, 26 Jul 2022 17:55:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-27 12:13:35.209712
- Title: Task Agnostic and Post-hoc Unseen Distribution Detection
- Title(参考訳): タスク非依存とポストホック・アンセンシング分布検出
- Authors: Radhika Dua, Seongjun Yang, Yixuan Li, Edward Choi
- Abstract要約: 本稿では,タスク非依存かつポストホックな未確認分布検出(TAPUDD)手法を提案する。
トレーニングデータセットの特徴をクラスタ化し、すべてのクラスタからテストサンプルの最小マハラノビス距離を決定するTAP-Mahalanobisで構成されている。
提案手法は,多様なタスクにまたがる未知のサンプルを効果的に検出し,既存のベースラインと同等あるいは同等に動作することを示す。
- 参考スコア(独自算出の注目度): 27.69612483621752
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Despite the recent advances in out-of-distribution(OOD) detection, anomaly
detection, and uncertainty estimation tasks, there do not exist a task-agnostic
and post-hoc approach. To address this limitation, we design a novel
clustering-based ensembling method, called Task Agnostic and Post-hoc Unseen
Distribution Detection (TAPUDD) that utilizes the features extracted from the
model trained on a specific task. Explicitly, it comprises of TAP-Mahalanobis,
which clusters the training datasets' features and determines the minimum
Mahalanobis distance of the test sample from all clusters. Further, we propose
the Ensembling module that aggregates the computation of iterative
TAP-Mahalanobis for a different number of clusters to provide reliable and
efficient cluster computation. Through extensive experiments on synthetic and
real-world datasets, we observe that our approach can detect unseen samples
effectively across diverse tasks and performs better or on-par with the
existing baselines. To this end, we eliminate the necessity of determining the
optimal value of the number of clusters and demonstrate that our method is more
viable for large-scale classification tasks.
- Abstract(参考訳): アウトオブディストリビューション(ood)検出、異常検出、不確実性推定タスクの最近の進歩にもかかわらず、タスクに依存しないポストホックなアプローチは存在しない。
この制限に対処するために、特定のタスクで訓練されたモデルから抽出された特徴を利用する、タスク非依存およびポストホックアンショー配信検出(TAPUDD)と呼ばれる新しいクラスタリングベースのアンサンブル手法を設計する。
TAP-Mahalanobisはトレーニングデータセットの特徴をクラスタ化し、すべてのクラスタからテストサンプルの最小マハラノビス距離を決定する。
さらに,異なる数のクラスタに対して反復的TAP-Mahalanobisの計算を集約し,信頼性と効率的なクラスタ計算を実現するEnsemblingモジュールを提案する。
合成および実世界のデータセットに関する広範な実験を通して、我々の手法は多様なタスクにわたって効果的に見つからないサンプルを検出でき、既存のベースラインと同等あるいは同等に機能する。
この目的のために,クラスタ数の最適値を決定する必要をなくし,大規模分類タスクにおいて提案手法がより有効であることを示す。
関連論文リスト
- Interpetable Target-Feature Aggregation for Multi-Task Learning based on Bias-Variance Analysis [53.38518232934096]
マルチタスク学習(MTL)は、タスク間の共有知識を活用し、一般化とパフォーマンスを改善するために設計された強力な機械学習パラダイムである。
本稿では,タスククラスタリングと特徴変換の交点におけるMTL手法を提案する。
両段階において、鍵となる側面は減った目標と特徴の解釈可能性を維持することである。
論文 参考訳(メタデータ) (2024-06-12T08:30:16Z) - Deep Embedding Clustering Driven by Sample Stability [16.53706617383543]
サンプル安定性(DECS)により駆動されるディープ埋め込みクラスタリングアルゴリズムを提案する。
具体的には、まずオートエンコーダで初期特徴空間を構築し、次にサンプル安定性に制約されたクラスタ指向の埋め込み機能を学ぶ。
5つのデータセットに対する実験結果から,提案手法は最先端のクラスタリング手法と比較して優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-01-29T09:19:49Z) - Stable Cluster Discrimination for Deep Clustering [7.175082696240088]
ディープクラスタリングは、インスタンスの表現(つまり、表現学習)を最適化し、固有のデータ分散を探索することができる。
結合された目的は、すべてのインスタンスが一様機能に崩壊する、自明な解決策を意味する。
本研究では,1段階クラスタリングにおいて,教師あり学習における一般的な識別タスクが不安定であることを示す。
新規な安定クラスタ識別(SeCu)タスクを提案し、それに応じて新しいハードネス対応クラスタリング基準を得ることができる。
論文 参考訳(メタデータ) (2023-11-24T06:43:26Z) - Rethinking Clustering-Based Pseudo-Labeling for Unsupervised
Meta-Learning [146.11600461034746]
教師なしメタラーニングのメソッドであるCACTUsは、擬似ラベル付きクラスタリングベースのアプローチである。
このアプローチはモデルに依存しないため、教師付きアルゴリズムと組み合わせてラベルのないデータから学習することができる。
このことの核となる理由は、埋め込み空間においてクラスタリングに優しい性質が欠如していることである。
論文 参考訳(メタデータ) (2022-09-27T19:04:36Z) - A One-shot Framework for Distributed Clustered Learning in Heterogeneous
Environments [54.172993875654015]
異種環境における分散学習のためのコミュニケーション効率化手法のファミリーを提案する。
ユーザによるローカル計算に基づくワンショットアプローチと、サーバにおけるクラスタリングベースのアグリゲーションステップは、強力な学習保証を提供する。
厳密な凸問題に対しては,ユーザ毎のデータ点数がしきい値を超える限り,提案手法はサンプルサイズの観点から順序最適平均二乗誤差率を達成する。
論文 参考訳(メタデータ) (2022-09-22T09:04:10Z) - Mitigating shortage of labeled data using clustering-based active
learning with diversity exploration [3.312798619476657]
本稿ではクラスタリングに基づくアクティブラーニングフレームワーク,すなわちクラスタリングに基づくサンプリングを用いたアクティブラーニングを提案する。
重なり合うクラスを分類する学習性能を向上させるために、クラスタ境界に基づくサンプルクエリ手順が導入された。
論文 参考訳(メタデータ) (2022-07-06T20:53:28Z) - Optimal Clustering with Bandit Feedback [57.672609011609886]
本稿では,バンディットフィードバックを用いたオンラインクラスタリングの問題点について考察する。
これは、NPハード重み付きクラスタリング問題をサブルーチンとして解決する必要性を回避するための、シーケンシャルなテストのための新しい停止規則を含む。
合成および実世界のデータセットの広範なシミュレーションを通して、BOCの性能は下界と一致し、非適応的ベースラインアルゴリズムよりも大幅に優れることを示す。
論文 参考訳(メタデータ) (2022-02-09T06:05:05Z) - Leveraging Ensembles and Self-Supervised Learning for Fully-Unsupervised
Person Re-Identification and Text Authorship Attribution [77.85461690214551]
完全ラベル付きデータからの学習は、Person Re-IdentificationやText Authorship Attributionなどのマルチメディアフォレスト問題において困難である。
近年の自己教師型学習法は,基礎となるクラスに意味的差異が有る場合に,完全ラベル付きデータを扱う際に有効であることが示されている。
本研究では,異なるクラスからのサンプルが顕著に多様性を持っていない場合でも,ラベルのないデータから学習できるようにすることにより,個人再認識とテキストオーサシップの属性に対処する戦略を提案する。
論文 参考訳(メタデータ) (2022-02-07T13:08:11Z) - Lattice-Based Methods Surpass Sum-of-Squares in Clustering [98.46302040220395]
クラスタリングは教師なし学習における基本的なプリミティブである。
最近の研究は、低次手法のクラスに対する低い境界を確立している。
意外なことに、この特定のクラスタリングモデルのtextitdoesは、統計的-計算的ギャップを示さない。
論文 参考訳(メタデータ) (2021-12-07T18:50:17Z) - Deep Distribution-preserving Incomplete Clustering with Optimal
Transport [43.0056459311929]
DDIC-OT(Deep Distribution-preserving Incomplete Clustering with Optimal Transport)と呼ばれる新しい深層不完全クラスタリング手法を提案する。
提案ネットワークは, 既存の不完全クラスタリング手法に対して, 異なる欠落率で優れたクラスタリング性能を実現する。
論文 参考訳(メタデータ) (2021-03-21T15:43:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。