論文の概要: HyperCore: Coreset Selection under Noise via Hypersphere Models
- arxiv url: http://arxiv.org/abs/2509.21746v1
- Date: Fri, 26 Sep 2025 01:24:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.108827
- Title: HyperCore: Coreset Selection under Noise via Hypersphere Models
- Title(参考訳): HyperCore:ハイパースフィアモデルによるノイズ下でのコアセット選択
- Authors: Brian B. Moser, Arundhati S. Shanbhag, Tobias C. Nauen, Stanislav Frolov, Federico Raue, Joachim Folz, Andreas Dengel,
- Abstract要約: HyperCoreは、ノイズの多い環境のための堅牢で適応的なコアセット選択フレームワークである。
我々はHyperCoreが最先端のコアセット選択手法を一貫して超越していることを示します。
- 参考スコア(独自算出の注目度): 9.129619927191973
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The goal of coreset selection methods is to identify representative subsets of datasets for efficient model training. Yet, existing methods often ignore the possibility of annotation errors and require fixed pruning ratios, making them impractical in real-world settings. We present HyperCore, a robust and adaptive coreset selection framework designed explicitly for noisy environments. HyperCore leverages lightweight hypersphere models learned per class, embedding in-class samples close to a hypersphere center while naturally segregating out-of-class samples based on their distance. By using Youden's J statistic, HyperCore can adaptively select pruning thresholds, enabling automatic, noise-aware data pruning without hyperparameter tuning. Our experiments reveal that HyperCore consistently surpasses state-of-the-art coreset selection methods, especially under noisy and low-data regimes. HyperCore effectively discards mislabeled and ambiguous points, yielding compact yet highly informative subsets suitable for scalable and noise-free learning.
- Abstract(参考訳): コアセット選択法の目的は、効率的なモデルトレーニングのためのデータセットの代表的なサブセットを特定することである。
しかし、既存のメソッドは、しばしばアノテーションエラーの可能性を無視し、固定プルーニング比を必要とするため、現実の環境では実用的ではない。
ノイズの多い環境向けに明示的に設計された、堅牢で適応的なコアセット選択フレームワークであるHyperCoreを紹介します。
HyperCoreはクラス毎に学習した軽量なハイパースフィアモデルを活用し、ハイパースフィアセンターの近くにクラス内のサンプルを埋め込むと同時に、その距離に基づいてクラス外のサンプルを自然に分離する。
YoudenのJ統計を利用することで、HyperCoreはプルーニング閾値を適応的に選択し、ハイパーパラメータチューニングなしで自動ノイズ対応データプルーニングを可能にする。
実験の結果,HyperCoreは現状のコアセット選択手法,特にノイズや低データ条件下で一貫して超越していることがわかった。
HyperCoreは、誤ラベルと曖昧な点を効果的に破棄し、スケーラブルでノイズのない学習に適したコンパクトで高情報なサブセットを提供する。
関連論文リスト
- SubZeroCore: A Submodular Approach with Zero Training for Coreset Selection [9.129619927191973]
SubZeroCoreは、サブモジュールのカバレッジと密度を単一の統一された目的に統合する、トレーニング不要なコアセット選択方法である。
SubZeroCoreはトレーニングベースのベースラインと一致し、高いプルーニングレートで大幅に性能を向上し、計算オーバーヘッドを劇的に削減することを示す。
論文 参考訳(メタデータ) (2025-09-26T01:26:45Z) - Non-Uniform Class-Wise Coreset Selection: Characterizing Category Difficulty for Data-Efficient Transfer Learning [19.152700266277247]
Non-Uniform Class-Wise Coreset Selection (NUCS)は、クラスレベルとインスタンスレベルの両方の基準を統合する新しいフレームワークである。
我々の研究は、コアセット選択におけるカテゴリの難しさを特徴づけることの重要性を強調し、転送学習のための堅牢でデータ効率のよいソリューションを提供する。
論文 参考訳(メタデータ) (2025-04-17T15:40:51Z) - crowd-hpo: Realistic Hyperparameter Optimization and Benchmarking for Learning from Crowds with Noisy Labels [1.99197168821625]
クラウドワークは、クラスラベルを取得するためのコスト効率のよいソリューションである。
群衆から学ぶための様々なアプローチが提案されている。
Crowd-hpoは、群衆から学ぶアプローチを評価するためのフレームワークである。
論文 参考訳(メタデータ) (2025-04-12T05:36:16Z) - Zero-Shot Coreset Selection: Efficient Pruning for Unlabeled Data [22.45812577928658]
Coreset選択は、モデルをトレーニングするデータの代表的なサブセットを見つけることを目的としている。
ZCoreは、真実ラベルや候補データによるトレーニングなしに、コアセットを効率的に選択する手法である。
我々は、4つのデータセット上でZCoreを評価し、いくつかの最先端のラベルベースの手法より優れています。
論文 参考訳(メタデータ) (2024-11-22T21:17:49Z) - Latent Class-Conditional Noise Model [54.56899309997246]
本稿では,ベイズ的枠組みの下での雑音遷移をパラメータ化するためのLatent Class-Conditional Noise Model (LCCN)を提案する。
次に、Gibs sampler を用いて遅延真のラベルを効率的に推測できる LCCN の動的ラベル回帰法を導出する。
提案手法は,サンプルのミニバッチから事前の任意チューニングを回避するため,ノイズ遷移の安定な更新を保護している。
論文 参考訳(メタデータ) (2023-02-19T15:24:37Z) - Prototypical Classifier for Robust Class-Imbalanced Learning [64.96088324684683]
埋め込みネットワークに付加的なパラメータを必要としないtextitPrototypealを提案する。
プロトタイプは、訓練セットがクラス不均衡であるにもかかわらず、すべてのクラスに対してバランスと同等の予測を生成する。
我々は, CIFAR-10LT, CIFAR-100LT, Webvision のデータセットを用いて, プロトタイプが芸術の状況と比較した場合, サブスタンスの改善が得られることを検証した。
論文 参考訳(メタデータ) (2021-10-22T01:55:01Z) - Data Summarization via Bilevel Optimization [48.89977988203108]
シンプルだが強力なアプローチは、小さなサブセットのデータを操作することだ。
本研究では,コアセット選択を基数制約付き双レベル最適化問題として定式化する汎用コアセットフレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-26T09:08:38Z) - Tune it the Right Way: Unsupervised Validation of Domain Adaptation via
Soft Neighborhood Density [125.64297244986552]
本稿では,点間の類似度分布のエントロピーを計算し,ソフト近傍の密度を測定する教師なし検証基準を提案する。
私たちの基準は、競合する検証方法よりもシンプルですが、より効果的です。
論文 参考訳(メタデータ) (2021-08-24T17:41:45Z) - Online Coreset Selection for Rehearsal-based Continual Learning [65.85595842458882]
継続的な学習では、後に再生されるトレーニング例(コアセット)のサブセットを格納し、破滅的な忘れを軽減します。
提案するオンラインコアセット選択(OCS, Online Coreset Selection)は, 各イテレーションにおいて最も代表的で情報性の高いコアセットを選択するシンプルで効果的な方法である。
提案手法は,過去のタスクに対して高親和性サンプルを選択しながら,目標データセットへのモデル適応を最大化し,破滅的忘れを直接的に抑制する。
論文 参考訳(メタデータ) (2021-06-02T11:39:25Z) - DyCo3D: Robust Instance Segmentation of 3D Point Clouds through Dynamic
Convolution [136.7261709896713]
本稿では,インスタンスの性質に応じて適切な畳み込みカーネルを生成するデータ駆動型アプローチを提案する。
提案手法はScanetNetV2とS3DISの両方で有望な結果が得られる。
また、現在の最先端よりも推論速度を25%以上向上させる。
論文 参考訳(メタデータ) (2020-11-26T14:56:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。