論文の概要: Memory Classifiers: Two-stage Classification for Robustness in Machine
Learning
- arxiv url: http://arxiv.org/abs/2206.05323v1
- Date: Fri, 10 Jun 2022 18:44:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-14 13:01:39.065747
- Title: Memory Classifiers: Two-stage Classification for Robustness in Machine
Learning
- Title(参考訳): メモリ分類器:機械学習におけるロバストネスの2段階分類
- Authors: Souradeep Dutta, Yahan Yang, Elena Bernardis, Edgar Dobriban, Insup
Lee
- Abstract要約: 本稿では,分散シフトに対するロバスト性を改善する新しい分類法を提案する。
データの高レベル構造に関する専門知識を標準分類器と組み合わせる。
標準データ拡張技術を超える改善を示す。
- 参考スコア(独自算出の注目度): 19.450529711560964
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The performance of machine learning models can significantly degrade under
distribution shifts of the data. We propose a new method for classification
which can improve robustness to distribution shifts, by combining expert
knowledge about the ``high-level" structure of the data with standard
classifiers. Specifically, we introduce two-stage classifiers called
\textit{memory classifiers}. First, these identify prototypical data points --
\textit{memories} -- to cluster the training data. This step is based on
features designed with expert guidance; for instance, for image data they can
be extracted using digital image processing algorithms. Then, within each
cluster, we learn local classifiers based on finer discriminating features, via
standard models like deep neural networks. We establish generalization bounds
for memory classifiers. We illustrate in experiments that they can improve
generalization and robustness to distribution shifts on image datasets. We show
improvements which push beyond standard data augmentation techniques.
- Abstract(参考訳): 機械学習モデルの性能は、データの分散シフトによって著しく低下する可能性がある。
本稿では,データの「高レベル」構造に関する知識と標準分類器を組み合わせることにより,分散シフトに対するロバスト性を向上させる新しい分類法を提案する。
具体的には,二段階分類器 \textit{memory classifiers} を導入する。
まず、トレーニングデータをクラスタ化するプロトタイプデータポイント -\textit{memories} を識別する。
このステップは、エキスパートガイダンスで設計された機能に基づいています。例えば、画像データについては、デジタル画像処理アルゴリズムを使って抽出することができます。
そして、各クラスタ内で、ディープニューラルネットワークのような標準モデルを介して、より細かい識別機能に基づいてローカルな分類器を学習します。
メモリ分類器の一般化境界を確立する。
画像データセット上の分布シフトに対する一般化とロバスト性を改善する実験について説明する。
我々は、標準的なデータ拡張技術を超えて推進する改善を示す。
関連論文リスト
- Exploring Beyond Logits: Hierarchical Dynamic Labeling Based on Embeddings for Semi-Supervised Classification [49.09505771145326]
モデル予測に依存しない階層型動的ラベル付け(HDL)アルゴリズムを提案し,画像埋め込みを用いてサンプルラベルを生成する。
本手法は,半教師付き学習における擬似ラベル生成のパラダイムを変える可能性がある。
論文 参考訳(メタデータ) (2024-04-26T06:00:27Z) - A Lightweight Clustering Framework for Unsupervised Semantic
Segmentation [28.907274978550493]
教師なしセマンティックセグメンテーションは、注釈付きデータを用いることなく、画像の各ピクセルを対応するクラスに分類することを目的としている。
教師なしセマンティックセグメンテーションのための軽量クラスタリングフレームワークを提案する。
本フレームワークは,PASCAL VOCおよびMS COCOデータセットの最先端結果を実現する。
論文 参考訳(メタデータ) (2023-11-30T15:33:42Z) - ScribbleGen: Generative Data Augmentation Improves Scribble-supervised Semantic Segmentation [10.225021032417589]
本稿では,スクリブル教師付きセマンティックセグメンテーションのための生成データ拡張手法であるScribbleGenを提案する。
セマンティックスクリブルに条件付き制御ネット拡散モデルを用いて,高品質なトレーニングデータを生成する。
我々のフレームワークは、完全に教師されたセグメンテーションを超越しても、小さなデータセットでのセグメンテーション性能を著しく改善することを示す。
論文 参考訳(メタデータ) (2023-11-28T13:44:33Z) - Weakly Supervised Change Detection Using Guided Anisotropic Difusion [97.43170678509478]
我々は、このようなデータセットを変更検出の文脈で活用するのに役立つ独自のアイデアを提案する。
まず,意味的セグメンテーション結果を改善する誘導異方性拡散(GAD)アルゴリズムを提案する。
次に、変化検出に適した2つの弱い教師付き学習戦略の可能性を示す。
論文 参考訳(メタデータ) (2021-12-31T10:03:47Z) - Self-Supervised Class Incremental Learning [51.62542103481908]
既存のクラスインクリメンタルラーニング(CIL)手法は、データラベルに敏感な教師付き分類フレームワークに基づいている。
新しいクラスデータに基づいて更新する場合、それらは破滅的な忘れがちである。
本稿では,SSCILにおける自己指導型表現学習のパフォーマンスを初めて考察する。
論文 参考訳(メタデータ) (2021-11-18T06:58:19Z) - No Fear of Heterogeneity: Classifier Calibration for Federated Learning
with Non-IID Data [78.69828864672978]
実世界のフェデレーションシステムにおける分類モデルのトレーニングにおける中心的な課題は、非IIDデータによる学習である。
このアルゴリズムは, 近似されたssian混合モデルからサンプリングした仮想表現を用いて分類器を調整する。
実験の結果,CIFAR-10,CIFAR-100,CINIC-10など,一般的なフェデレーション学習ベンチマークにおけるCCVRの現状が示された。
論文 参考訳(メタデータ) (2021-06-09T12:02:29Z) - Memory Wrap: a Data-Efficient and Interpretable Extension to Image
Classification Models [9.848884631714451]
Memory Wrapは、任意の画像分類モデルのプラグアンドプレイ拡張である。
データ効率性とモデル解釈性の両方を改善し、コンテンツアテンションメカニズムを採用する。
メモリラップは,限られたデータ集合から学習すると,標準的な分類器よりも優れることを示す。
論文 参考訳(メタデータ) (2021-06-01T07:24:19Z) - Few-Shot Incremental Learning with Continually Evolved Classifiers [46.278573301326276]
Few-shot Class-Incremental Learning(FSCIL)は、いくつかのデータポイントから新しい概念を継続的に学習できる機械学習アルゴリズムの設計を目指している。
難点は、新しいクラスからの限られたデータが、重大な過度な問題を引き起こすだけでなく、破滅的な忘れの問題も悪化させることにある。
我々は,適応のための分類器間のコンテキスト情報を伝達するグラフモデルを用いた連続進化型cif(cec)を提案する。
論文 参考訳(メタデータ) (2021-04-07T10:54:51Z) - Learning and Evaluating Representations for Deep One-class
Classification [59.095144932794646]
ディープワンクラス分類のための2段階フレームワークを提案する。
まず,一級データから自己教師付き表現を学習し,学習した表現に基づいて一級分類器を構築する。
実験では、視覚領域の1クラス分類ベンチマークで最先端の性能を示す。
論文 参考訳(メタデータ) (2020-11-04T23:33:41Z) - Set Based Stochastic Subsampling [85.5331107565578]
本稿では,2段階間ニューラルサブサンプリングモデルを提案する。
画像分類,画像再構成,機能再構築,少数ショット分類など,様々なタスクにおいて,低いサブサンプリング率で関連ベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2020-06-25T07:36:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。