論文の概要: All Beings Are Equal in Open Set Recognition
- arxiv url: http://arxiv.org/abs/2401.17654v1
- Date: Wed, 31 Jan 2024 08:16:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-01 15:13:11.546314
- Title: All Beings Are Equal in Open Set Recognition
- Title(参考訳): すべての存在はオープンセット認識に等しくなる
- Authors: Chaohua Li, Enhao Zhang, Chuanxing Geng, SongCan Chen
- Abstract要約: オープンセット認識(OSR)において、有望な戦略は、$K$+1$-thクラスとして、与えられた$K$の既知のクラス外で擬似未知のデータを活用することである。
未知のクラスを区別せずに扱うことは、未知のクラスをカテゴリー非依存かつスケール非依存にするため、既知のクラスと比較して不平等である。
ターゲット・アウェア・ユニバーサム(DCTAU)を用いた簡易かつ効果的なデュアルコントラスト学習フレームワークを提案する。
- 参考スコア(独自算出の注目度): 30.006524837345562
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In open-set recognition (OSR), a promising strategy is exploiting
pseudo-unknown data outside given $K$ known classes as an additional $K$+$1$-th
class to explicitly model potential open space. However, treating unknown
classes without distinction is unequal for them relative to known classes due
to the category-agnostic and scale-agnostic of the unknowns. This inevitably
not only disrupts the inherent distributions of unknown classes but also incurs
both class-wise and instance-wise imbalances between known and unknown classes.
Ideally, the OSR problem should model the whole class space as $K$+$\infty$,
but enumerating all unknowns is impractical. Since the core of OSR is to
effectively model the boundaries of known classes, this means just focusing on
the unknowns nearing the boundaries of targeted known classes seems sufficient.
Thus, as a compromise, we convert the open classes from infinite to $K$, with a
novel concept Target-Aware Universum (TAU) and propose a simple yet effective
framework Dual Contrastive Learning with Target-Aware Universum (DCTAU). In
details, guided by the targeted known classes, TAU automatically expands the
unknown classes from the previous $1$ to $K$, effectively alleviating the
distribution disruption and the imbalance issues mentioned above. Then, a novel
Dual Contrastive (DC) loss is designed, where all instances irrespective of
known or TAU are considered as positives to contrast with their respective
negatives. Experimental results indicate DCTAU sets a new state-of-the-art.
- Abstract(参考訳): オープンセット認識(OSR)において、有望な戦略は、潜在的オープンスペースを明示的にモデル化するために、K$+1$-thクラスを追加でK$+1$-thクラスとして与えられた擬似未知のデータを活用することである。
しかし、未知のクラスを区別せずに扱うことは、未知のクラスを分類非依存かつスケール非依存にするため、既知のクラスと比較して不平等である。
これは必然的に未知のクラスの固有の分布を乱すだけでなく、既知のクラスと未知のクラスの間のクラスとインスタンス間の不均衡を引き起こす。
理想的には、OSR問題はクラス空間全体を$K$+$\infty$としてモデル化すべきであるが、すべての未知を列挙することは現実的ではない。
osrの中核は既知のクラスのバウンダリを効果的にモデル化することなので、対象とする既知のクラスのバウンダリに近づいた未知にのみ焦点を合わせれば十分と思われる。
したがって、オープンクラスを無限から$K$に変換し、新しい概念であるTarget-Aware Universum (TAU) を導入し、Dual Contrastive Learning with Target-Aware Universum (DCTAU) を提案する。
詳細は、対象とする既知のクラスによって導かれるが、TAUは未知のクラスを以前の$$から$K$に自動的に拡張し、配布の中断と上記の不均衡問題を効果的に緩和する。
次に、新しいDual Contrastive (DC)損失を設計し、既知のものやTAUによらない全てのインスタンスを、それぞれの負と対照的に正とみなす。
実験結果は、DCTAUが新しい最先端を設定できることを示している。
関連論文リスト
- Any Target Can be Offense: Adversarial Example Generation via Generalized Latent Infection [83.72430401516674]
GAKerは任意のターゲットクラスに対して逆例を構築することができる。
本手法は,未知のクラスに対する攻撃成功率を約14.13%で達成する。
論文 参考訳(メタデータ) (2024-07-17T03:24:09Z) - OpenSlot: Mixed Open-set Recognition with Object-centric Learning [21.933996792254998]
オープンセット認識(OSR)研究は通常、各画像は1つのクラスラベルしか持たず、未知のテストセット(負)は既知のテストセット(正)から切り離されたラベル空間を持つと仮定する。
本稿では、テスト画像が複数のクラスセマンティクスを含み、既知のクラスと未知のクラスが負に共起する混合OSR問題を紹介する。
オブジェクト指向学習に基づくOpenSlotフレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-02T16:00:55Z) - Robust Semi-Supervised Learning for Self-learning Open-World Classes [5.714673612282175]
実世界のアプリケーションでは、ラベル付きデータは常にラベル付き集合に存在しないクラスを含んでいる。
本稿では,自己学習型オープンワールドクラス(SSOC)のためのオープンワールドSSL手法を提案する。
SSOCは、複数の人気のある分類ベンチマークで最先端のベースラインを上回っている。
論文 参考訳(メタデータ) (2024-01-15T09:27:46Z) - Open Long-Tailed Recognition in a Dynamic World [82.91025831618545]
実世界のデータは、しばしば長い尾を持ち、(目に見えないクラスを持つ)オープンな分布を示す。
現実的な認識システムは、多数派(頭)クラスと少数派(尾)クラスの間でバランスを取り、分布を一般化し、見知らぬクラス(オープンクラス)のインスタンスで新規性を認める必要がある。
我々は,Open Long-Tailed Recognition++を,このような自然分布データからの学習として定義し,バランスの取れたテストセット上での分類精度を最適化する。
論文 参考訳(メタデータ) (2022-08-17T15:22:20Z) - On Non-Random Missing Labels in Semi-Supervised Learning [114.62655062520425]
Semi-Supervised Learning (SSL)は基本的にラベルの問題である。
SSL に "class" を明示的に組み込んでいます。
提案手法は,既存のベースラインを著しく上回るだけでなく,他のラベルバイアス除去SSL法を上回ります。
論文 参考訳(メタデータ) (2022-06-29T22:01:29Z) - Few-Shot Object Detection via Association and DIscrimination [83.8472428718097]
AssociationとDIscriminationによるオブジェクト検出は、新しいクラスごとに2つのステップで識別可能な特徴空間を構築している。
Pascal VOCとMS-COCOデータセットの実験では、FADIは新しいSOTAパフォーマンスを実現し、ショット/スプリットのベースラインを+18.7で大幅に改善した。
論文 参考訳(メタデータ) (2021-11-23T05:04:06Z) - Adversarial Reciprocal Points Learning for Open Set Recognition [21.963137599375862]
オープンセット認識(OSR)は、見たクラスを同時に分類し、見えないクラスを「未知」と識別することを目的としている。
我々は,マルチクラス統合の観点から,オープンスペースリスク問題を定式化する。
未知分布と未知分布の重複を最小限に抑えるために,ARPL(Adrial Reciprocal Point Learning)と呼ばれる新しい学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-01T12:25:45Z) - CLASTER: Clustering with Reinforcement Learning for Zero-Shot Action
Recognition [52.66360172784038]
各インスタンスを個別に最適化するのではなく,すべてのトレーニングサンプルを同時に考慮したクラスタリングモデルを提案する。
提案手法をCLASTERと呼び,すべての標準データセットの最先端性を常に改善することを確認する。
論文 参考訳(メタデータ) (2021-01-18T12:46:24Z) - Few-Shot Hyperspectral Image Classification With Unknown Classes Using
Multitask Deep Learning [24.02524697784525]
現在のハイパースペクトル画像分類は、事前に定義された分類体系が閉じて完成していると仮定する。
オープンワールドにおける分類と再構築を同時に行う深層学習手法を提案する。
提案手法は,特に数点の文脈下で,より高精度なハイパースペクトル画像分類を実現する。
論文 参考訳(メタデータ) (2020-09-08T03:53:10Z) - Federated Learning with Only Positive Labels [71.63836379169315]
FedAwS(Federated Averaging with Spreadout)という,正のラベルのみを用いたトレーニングのための汎用フレームワークを提案する。
理論的にも経験的にも、FedAwSは、ユーザが負のラベルにアクセス可能な従来の学習のパフォーマンスとほぼ一致していることを示す。
論文 参考訳(メタデータ) (2020-04-21T23:35:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。