論文の概要: SAMOSA: Sharpness Aware Minimization for Open Set Active learning
- arxiv url: http://arxiv.org/abs/2510.16757v2
- Date: Fri, 24 Oct 2025 16:14:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-28 09:00:15.208968
- Title: SAMOSA: Sharpness Aware Minimization for Open Set Active learning
- Title(参考訳): SAMOSA:オープンセットアクティブラーニングのためのシャープネス認識最小化
- Authors: Young In Kim, Andrea Agiollo, Rajiv Khanna,
- Abstract要約: 本稿では,オープンセットアクティブラーニング(SAMOSA)のためのシャープネス認識最小化手法を提案する。
従来の勾配勾配勾配(SGD)の一般化特性に対するデータの典型性の影響に関する理論的考察
実験によると、SAMOSAは複数のデータセットにわたって、アートの状態を最大3%の精度で改善している。
- 参考スコア(独自算出の注目度): 10.312686151607219
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern machine learning solutions require extensive data collection where labeling remains costly. To reduce this burden, open set active learning approaches aim to select informative samples from a large pool of unlabeled data that includes irrelevant or unknown classes. In this context, we propose Sharpness Aware Minimization for Open Set Active Learning (SAMOSA) as an effective querying algorithm. Building on theoretical findings concerning the impact of data typicality on the generalization properties of traditional stochastic gradient descent (SGD) and sharpness-aware minimization (SAM), SAMOSA actively queries samples based on their typicality. SAMOSA effectively identifies atypical samples that belong to regions of the embedding manifold close to the model decision boundaries. Therefore, SAMOSA prioritizes the samples that are (i) highly informative for the targeted classes, and (ii) useful for distinguishing between targeted and unwanted classes. Extensive experiments show that SAMOSA achieves up to 3% accuracy improvement over the state of the art across several datasets, while not introducing computational overhead. The source code of our experiments is available at: https://anonymous.4open.science/r/samosa-DAF4
- Abstract(参考訳): 現代の機械学習ソリューションでは、ラベル付けにコストがかかるような広範なデータ収集が必要である。
この負担を軽減するために、オープンセットアクティブな学習手法は、無関係または未知のクラスを含むラベルなしデータの大きなプールから情報的サンプルを選択することを目的としている。
そこで本研究では,オープンセットアクティブラーニング(SAMOSA)のためのシャープネス認識最小化手法を提案する。
従来の確率勾配勾配(SGD)とシャープネス認識最小化(SAM)の一般化特性に対するデータの典型性の影響に関する理論的知見に基づいて,SAMOSAは,その典型性に基づいて標本を積極的にクエリする。
SAMOSAは、モデル決定境界に近い埋め込み多様体の領域に属する非定型サンプルを効果的に同定する。
そのため、SAMOSAはサンプルを優先する。
(i)対象クラスに対して非常に情報的であり、
(ii)対象クラスと望ましくないクラスを区別するのに有用である。
大規模な実験では、SAMOSAはいくつかのデータセットで最先端の精度を最大3%向上する一方で、計算オーバーヘッドは導入していない。
実験のソースコードは、https://anonymous.4open.science/r/samosa-DAF4で公開されています。
関連論文リスト
- Class Balance Matters to Active Class-Incremental Learning [61.11786214164405]
まず、大規模な未ラベルデータのプールから始めて、インクリメンタルな学習のための最も情報に富んだサンプルを注釈付けします。
そこで我々は,クラスバランスと情報提供性を両立させるため,クラスバランス選択(CBS)戦略を提案する。
我々のCBSは、プリトレーニング済みモデルとプロンプトチューニング技術に基づいて、これらのCILメソッドに接続し、再生することができる。
論文 参考訳(メタデータ) (2024-12-09T16:37:27Z) - Querying Easily Flip-flopped Samples for Deep Active Learning [63.62397322172216]
アクティブラーニング(英: Active Learning)は、ラベルのないデータを戦略的に選択してクエリすることで、モデルの性能を向上させることを目的とした機械学習パラダイムである。
効果的な選択戦略の1つはモデルの予測の不確実性に基づくもので、サンプルがどの程度情報的であるかの尺度として解釈できる。
本稿では,予測されたラベルの不一致の最小確率として,最小不一致距離(LDM)を提案する。
論文 参考訳(メタデータ) (2024-01-18T08:12:23Z) - MyriadAL: Active Few Shot Learning for Histopathology [10.652626309100889]
我々は、Myriad Active Learning (MAL)という、アクティブな数個のショットラーニングフレームワークを導入する。
MALには、コントラスト学習エンコーダ、擬似ラベル生成、ループ内の新しいクエリサンプル選択が含まれている。
2つの公的な病理組織学データセットの実験により、MALは以前の研究に比べてテスト精度、マクロF1スコア、ラベル効率が優れていることが示された。
論文 参考訳(メタデータ) (2023-10-24T20:08:15Z) - ASPEST: Bridging the Gap Between Active Learning and Selective
Prediction [56.001808843574395]
選択予測は、不確実な場合の予測を棄却する信頼性のあるモデルを学ぶことを目的としている。
アクティブラーニングは、最も有意義な例を問うことで、ラベリングの全体、すなわち人間の依存度を下げることを目的としている。
本研究では,移動対象領域からより情報のあるサンプルを検索することを目的とした,新たな学習パラダイムである能動的選択予測を導入する。
論文 参考訳(メタデータ) (2023-04-07T23:51:07Z) - Deep Active Learning with Contrastive Learning Under Realistic Data Pool
Assumptions [2.578242050187029]
アクティブラーニングは、モデルが望まれる精度を迅速に到達できるようにする、ラベルのないデータプールから最も情報性の高いデータを特定することを目的としている。
既存のアクティブラーニング手法の多くは、未ラベルのデータプールに対象タスクに関連するサンプルのみが存在する理想的な環境で評価されている。
我々は,不明瞭でタスク非関連なアウト・オブ・ディストリビューションと,イン・ディストリビューション・サンプルを含む,新しいアクティブ・ラーニング・ベンチマークを導入する。
論文 参考訳(メタデータ) (2023-03-25T10:46:10Z) - Temporal Output Discrepancy for Loss Estimation-based Active Learning [65.93767110342502]
ラベルのないサンプルが高損失を伴っていると信じられている場合に,データアノテーションのオラクルに問い合わせる,新しいディープラーニングアプローチを提案する。
本手法は,画像分類やセマンティックセグメンテーションタスクにおける最先端の能動学習手法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2022-12-20T19:29:37Z) - Is margin all you need? An extensive empirical study of active learning
on tabular data [66.18464006872345]
我々は,OpenML-CC18ベンチマークを用いて,69の実世界のデータセット上での各種能動学習アルゴリズムの性能を解析した。
意外なことに、古典的なマージンサンプリング技術は、現在の最先端技術を含む、他のすべてのものよりも優れている。
論文 参考訳(メタデータ) (2022-10-07T21:18:24Z) - Active Learning for Open-set Annotation [38.739845944840454]
我々はLfOSAと呼ばれる新しいアクティブラーニングフレームワークを提案する。このフレームワークは、効果的なサンプリング戦略を用いて分類性能を高め、アノテーションのための既知のクラスからサンプルを正確に検出する。
実験結果から,提案手法は既知のクラスの選択精度を著しく向上し,アノテーションコストの低い分類精度を最先端の能動学習法よりも向上させることができることがわかった。
論文 参考訳(メタデータ) (2022-01-18T06:11:51Z) - Reconstruction guided Meta-learning for Few Shot Open Set Recognition [31.49168444631114]
ReFOCS (Reconstructing Exemplar-based Few-shot Open-set Classifier) を提案する。
新規な再構築型メタラーニング戦略であるReFOCSを用いてFSOSRを効率化する。
ReFOCSは複数の最先端手法より優れていることを示す。
論文 参考訳(メタデータ) (2021-07-31T23:23:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。