論文の概要: Detecting Novelties with Empty Classes
- arxiv url: http://arxiv.org/abs/2305.00983v1
- Date: Sun, 30 Apr 2023 19:52:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-03 16:41:25.199682
- Title: Detecting Novelties with Empty Classes
- Title(参考訳): 空クラスによる新しさの検出
- Authors: Svenja Uhlemeyer, Julian Lienen, Eyke H\"ullermeier and Hanno
Gottschalk
- Abstract要約: 我々は、新しいクラスの候補として、異常検出に基づいて、配布外データ(OoD)を検索する。
1)DNNがOoDサンプルを空のクラスに割り当て、2)内部クラスの特徴距離を最小化する2つの損失関数を導入する。
- 参考スコア(独自算出の注目度): 6.953730499849023
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For open world applications, deep neural networks (DNNs) need to be aware of
previously unseen data and adaptable to evolving environments. Furthermore, it
is desirable to detect and learn novel classes which are not included in the
DNNs underlying set of semantic classes in an unsupervised fashion. The method
proposed in this article builds upon anomaly detection to retrieve
out-of-distribution (OoD) data as candidates for new classes. We thereafter
extend the DNN by $k$ empty classes and fine-tune it on the OoD data samples.
To this end, we introduce two loss functions, which 1) entice the DNN to assign
OoD samples to the empty classes and 2) to minimize the inner-class feature
distances between them. Thus, instead of ground truth which contains labels for
the different novel classes, the DNN obtains a single OoD label together with a
distance matrix, which is computed in advance. We perform several experiments
for image classification and semantic segmentation, which demonstrate that a
DNN can extend its own semantic space by multiple classes without having access
to ground truth.
- Abstract(参考訳): オープンワールドアプリケーションでは、ディープニューラルネットワーク(DNN)は、これまで見えないデータを認識し、進化する環境に適応する必要がある。
さらに、教師なしの方法で、DNNの基盤となるセマンティッククラスには含まれない新しいクラスを検出し、学習することが望ましい。
本稿では,新しいクラスの候補としてout-of-distribution(ood)データを取得する異常検出法について述べる。
その後、DNNを$k$空のクラスで拡張し、OoDデータサンプルで微調整します。
この目的のために 2つの損失関数を紹介します
1) DNN に OoD サンプルを空のクラスに割り当てるように指示する。
2)それら間の内クラス特徴距離を最小化する。
したがって、異なる新しいクラスのラベルを含む基底真理の代わりに、DNNは、予め計算された距離行列と共に単一のOoDラベルを取得する。
画像分類とセマンティックセグメンテーションのいくつかの実験を行い、DNNが真理にアクセスすることなく、複数のクラスで独自のセマンティック空間を拡張できることを実証した。
関連論文リスト
- Early-Exit with Class Exclusion for Efficient Inference of Neural
Networks [4.180653524441411]
ディープニューラルネットワーク(DNN)における動的推論のためのクラスベース早期抽出法を提案する。
これらのレイヤで学んだ機能を活用して、可能な限り多くの無関係なクラスを除外します。
実験により、推論におけるDNNの計算コストを大幅に削減できることを示した。
論文 参考訳(メタデータ) (2023-09-23T18:12:27Z) - Upcycling Models under Domain and Category Shift [95.22147885947732]
グローバルかつ局所的なクラスタリング学習技術(GLC)を導入する。
我々は、異なる対象クラス間での区別を実現するために、新しい1-vs-allグローバルクラスタリングアルゴリズムを設計する。
注目すべきは、最も困難なオープンパーティルセットDAシナリオにおいて、GLCは、VisDAベンチマークでUMADを14.8%上回っていることである。
論文 参考訳(メタデータ) (2023-03-13T13:44:04Z) - Rethinking Nearest Neighbors for Visual Classification [56.00783095670361]
k-NNは、トレーニングセット内のテストイメージとトップk隣人間の距離を集約する遅延学習手法である。
我々は,教師付き手法と自己監督型手法のいずれでも,事前学習した視覚表現を持つk-NNを2つのステップで採用する。
本研究は,幅広い分類タスクに関する広範な実験により,k-NN統合の汎用性と柔軟性を明らかにした。
論文 参考訳(メタデータ) (2021-12-15T20:15:01Z) - Hybrid Graph Neural Networks for Few-Shot Learning [85.93495480949079]
グラフニューラルネットワーク(GNN)は、数発の学習問題に対処するために使用されている。
帰納的設定の下では、既存のGNNベースのメソッドは競争力が少ない。
本稿では2つのGNN(インスタンスGNNとプロトタイプGNN)からなる新しいハイブリッドGNNモデルを提案する。
論文 参考訳(メタデータ) (2021-12-13T10:20:15Z) - Evaluating Deep Neural Network Ensembles by Majority Voting cum
Meta-Learning scheme [3.351714665243138]
新しいデータインスタンスのために,7つの独立したディープニューラルネットワーク(DNN)のアンサンブルを提案する。
残りのサンプルからブートストラップサンプリングによってデータの7分の1を削除して補充する。
この論文のすべてのアルゴリズムは5つのベンチマークデータセットでテストされている。
論文 参考訳(メタデータ) (2021-05-09T03:10:56Z) - OVANet: One-vs-All Network for Universal Domain Adaptation [78.86047802107025]
既存のメソッドは、検証または未知のサンプルの事前定義された比率に基づいて未知のサンプルを拒否するしきい値を手動で設定します。
本稿では,ソースサンプルを用いて閾値を学習し,対象領域に適応する手法を提案する。
私たちの考えは、ソースドメインの最小クラス間距離は、ターゲットの既知のか未知かを決定するための良いしきい値であるべきです。
論文 参考訳(メタデータ) (2021-04-07T18:36:31Z) - Meta Discovery: Learning to Discover Novel Classes given Very Limited
Data [59.90813997957849]
本稿では,L2DNCをメタラーニングにリンクすることで,L2DNCの分析と改善を行う。
L2DNCは理論的に解けるだけでなく、メタラーニングアルゴリズムによって、提案したフレームワークに適合するようにわずかに修正され、経験的に解決できる。
論文 参考訳(メタデータ) (2021-02-08T04:53:14Z) - Entropy Maximization and Meta Classification for Out-Of-Distribution
Detection in Semantic Segmentation [7.305019142196585]
自動運転など多くのアプリケーションにおいて,OoD(Out-of-Distribution)サンプルが不可欠である。
OoD検出の自然なベースラインアプローチは、ピクセル回りのソフトマックスエントロピーのしきい値です。
そのアプローチを大幅に改善する2段階の手順を提案する。
論文 参考訳(メタデータ) (2020-12-09T11:01:06Z) - Bridging the Theoretical Bound and Deep Algorithms for Open Set Domain
Adaptation [40.95099721257058]
教師なしオープンセットドメイン適応(UOSDA)では、ターゲットドメインはソースドメインで観測されていない未知のクラスを含む。
提案手法は,ソースドメインリスク,$epsilon$-openset difference(Delta_epsilon$),ドメイン間の分布差,定数の4つの条件を含む。
具体的には、ソースドメインリスクと$Delta_epsilon$は勾配降下によって最小化され、分散の相違は、新しいオープンセット条件付き対向訓練戦略によって最小化される。
論文 参考訳(メタデータ) (2020-06-23T14:01:06Z) - One Versus all for deep Neural Network Incertitude (OVNNI)
quantification [12.734278426543332]
本稿では,データの疫学的不確実性を容易に定量化するための新しい手法を提案する。
本手法は,1つのクラス対他のクラス(OVA)を分類するために訓練されたDNNのアンサンブルの予測と,オール対オール(AVA)分類を実行するために訓練された標準DNNの予測とを混合して構成する。
論文 参考訳(メタデータ) (2020-06-01T14:06:12Z) - L-Vector: Neural Label Embedding for Domain Adaptation [62.112885747045766]
本研究では、未ペアデータを用いたディープニューラルネットワーク(DNN)音響モデルの領域適応のための新しいニューラルラベル埋め込み(NLE)手法を提案する。
NLEは1ホットラベルによる直接再トレーニングよりも14.1%の相対的な単語誤り率の低減を実現している。
論文 参考訳(メタデータ) (2020-04-25T06:40:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。