論文の概要: Semi-Supervised Few-Shot Classification with Deep Invertible Hybrid
Models
- arxiv url: http://arxiv.org/abs/2105.10644v1
- Date: Sat, 22 May 2021 05:55:16 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-27 09:46:53.915934
- Title: Semi-Supervised Few-Shot Classification with Deep Invertible Hybrid
Models
- Title(参考訳): 深部インバーチブルハイブリッドモデルを用いた半スーパービジョンFew-Shot分類
- Authors: Yusuke Ohtsubo, Tetsu Matsukawa, Einoshin Suzuki
- Abstract要約: 半教師付き小ショット分類のための潜在空間レベルで識別学習と生成学習を統合するディープ・インバーチブルハイブリッドモデルを提案する。
我々の主な独創性は、これらのコンポーネントを潜在空間レベルで統合することであり、過度な適合を防ぐのに有効である。
- 参考スコア(独自算出の注目度): 4.189643331553922
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we propose a deep invertible hybrid model which integrates
discriminative and generative learning at a latent space level for
semi-supervised few-shot classification. Various tasks for classifying new
species from image data can be modeled as a semi-supervised few-shot
classification, which assumes a labeled and unlabeled training examples and a
small support set of the target classes. Predicting target classes with a few
support examples per class makes the learning task difficult for existing
semi-supervised classification methods, including selftraining, which
iteratively estimates class labels of unlabeled training examples to learn a
classifier for the training classes. To exploit unlabeled training examples
effectively, we adopt as the objective function the composite likelihood, which
integrates discriminative and generative learning and suits better with deep
neural networks than the parameter coupling prior, the other popular integrated
learning approach. In our proposed model, the discriminative and generative
models are respectively Prototypical Networks, which have shown excellent
performance in various kinds of few-shot learning, and Normalizing Flow a deep
invertible model which returns the exact marginal likelihood unlike the other
three major methods, i.e., VAE, GAN, and autoregressive model. Our main
originality lies in our integration of these components at a latent space
level, which is effective in preventing overfitting. Experiments using
mini-ImageNet and VGG-Face datasets show that our method outperforms
selftraining based Prototypical Networks.
- Abstract(参考訳): 本稿では,半教師付き少数ショット分類のための潜在空間レベルでの判別学習と生成学習を統合する,深い可逆ハイブリッドモデルを提案する。
画像データから新種を分類するための様々なタスクは、ラベル付きおよびラベルなしのトレーニング例とターゲットクラスの小さなサポートセットを想定した半教師付き少数ショット分類としてモデル化することができる。
クラス毎にいくつかのサポート例を持つ対象クラスを予測することにより,自己学習を含む既存の半教師付き分類手法の学習タスクを困難にし,未ラベルのトレーニング例のクラスラベルを反復的に推定して,トレーニングクラスの分類器を学習する。
ラベル付けされていない学習例を効果的に活用するために,識別学習と生成学習を統合し,パラメータ結合よりも深層ニューラルネットワークに適する合成可能性の目的関数として,他の一般的な統合学習アプローチを採用した。
提案モデルでは, 識別モデルと生成モデルはそれぞれ, 各種の少ショット学習において優れた性能を示したプロトタイプ型ネットワークと, VAE, GAN, 自己回帰モデルといった他の3つの主要な手法と異なり, 真正差率を返す深い可逆モデルであるフローを正規化する。
私たちの主な独創性は、これらのコンポーネントを潜在的な空間レベルで統合することにあります。
mini-ImageNetとVGG-Faceデータセットを用いた実験により,本手法は自己学習に基づくプロトタイプネットワークよりも優れていた。
関連論文リスト
- Investigating Self-Supervised Methods for Label-Efficient Learning [27.029542823306866]
低撮影能力のためのコントラスト学習、クラスタリング、マスク付き画像モデリングなど、さまざまな自己教師付きプレテキストタスクについて検討する。
マスク画像モデリングとクラスタリングの両方をプリテキストタスクとして含むフレームワークを導入する。
実規模データセット上でモデルをテストした場合,マルチクラス分類,マルチラベル分類,セマンティックセマンティックセグメンテーションにおける性能向上を示す。
論文 参考訳(メタデータ) (2024-06-25T10:56:03Z) - Reinforcing Pre-trained Models Using Counterfactual Images [54.26310919385808]
本稿では,言語誘導型生成対実画像を用いた分類モデル強化のための新しいフレームワークを提案する。
逆ファクト画像データセットを用いてモデルをテストすることにより、モデルの弱点を同定する。
我々は、分類モデルを微調整し強化するために、デファクトイメージを拡張データセットとして採用する。
論文 参考訳(メタデータ) (2024-06-19T08:07:14Z) - Pre-Trained Vision-Language Models as Partial Annotators [40.89255396643592]
事前学習された視覚言語モデルは、画像と自然言語の統一表現をモデル化するために大量のデータを学習する。
本稿では,事前学習型モデルアプリケーションのための「事前学習型-弱教師付き学習」パラダイムについて検討し,画像分類タスクの実験を行う。
論文 参考訳(メタデータ) (2024-05-23T17:17:27Z) - Simple-Sampling and Hard-Mixup with Prototypes to Rebalance Contrastive Learning for Text Classification [11.072083437769093]
我々は不均衡テキスト分類タスクのためのSharpReCLという新しいモデルを提案する。
私たちのモデルは、いくつかのデータセットで人気のある大きな言語モデルよりも優れています。
論文 参考訳(メタデータ) (2024-05-19T11:33:49Z) - Diffusion Models Beat GANs on Image Classification [37.70821298392606]
拡散モデルは、画像生成、復調、塗装、超解像、操作などの最先端の手法として注目されている。
本稿では,これらの埋め込みは識別情報を含むため,ノイズ予測タスクを超えて有用であり,分類にも活用できることを示す。
注意深い特徴選択とプーリングにより、拡散モデルは、分類タスクにおいて同等な生成的識別的手法より優れていることが判明した。
論文 参考訳(メタデータ) (2023-07-17T17:59:40Z) - Generalization Properties of Retrieval-based Models [50.35325326050263]
検索ベースの機械学習手法は、幅広い問題で成功をおさめた。
これらのモデルの約束を示す文献が増えているにもかかわらず、そのようなモデルの理論的基盤はいまだに解明されていない。
本稿では,その一般化能力を特徴付けるために,検索ベースモデルの形式的処理を行う。
論文 参考訳(メタデータ) (2022-10-06T00:33:01Z) - Contrastive Learning for Fair Representations [50.95604482330149]
訓練された分類モデルは、意図せずバイアスのある表現や予測につながる可能性がある。
対戦訓練のような既存の分類モデルのデバイアス化手法は、訓練に高価であり、最適化が困難であることが多い。
比較学習を取り入れたバイアス軽減手法を提案し、同じクラスラベルを共有するインスタンスに類似した表現を推奨する。
論文 参考訳(メタデータ) (2021-09-22T10:47:51Z) - Few-shot Action Recognition with Prototype-centered Attentive Learning [88.10852114988829]
2つの新しい構成要素からなるプロトタイプ中心型注意学習(pal)モデル。
まず,従来のクエリ中心学習目標を補完するために,プロトタイプ中心のコントラスト学習損失を導入する。
第二に、PALは注意深いハイブリッド学習機構を統合しており、アウトレーヤの負の影響を最小限に抑えることができる。
論文 参考訳(メタデータ) (2021-01-20T11:48:12Z) - Few-shot Classification via Adaptive Attention [93.06105498633492]
ごく少数の参照サンプルに基づいて,クエリサンプル表現を最適化し,高速に適応する新しい数ショット学習手法を提案する。
実験で実証したように,提案モデルでは,様々なベンチマーク数ショット分類と微粒化認識データセットを用いて,最先端の分類結果を達成している。
論文 参考訳(メタデータ) (2020-08-06T05:52:59Z) - ReMarNet: Conjoint Relation and Margin Learning for Small-Sample Image
Classification [49.87503122462432]
ReMarNet(Relation-and-Margin Learning Network)と呼ばれるニューラルネットワークを導入する。
本手法は,上記2つの分類機構の双方において優れた性能を発揮する特徴を学習するために,異なるバックボーンの2つのネットワークを組み立てる。
4つの画像データセットを用いた実験により,本手法はラベル付きサンプルの小さな集合から識別的特徴を学習するのに有効であることが示された。
論文 参考訳(メタデータ) (2020-06-27T13:50:20Z) - Leveraging Siamese Networks for One-Shot Intrusion Detection Model [0.0]
侵入検知システムを強化するための機械学習(ML)が重要な研究対象となっている。
モデルの再トレーニングは、十分な量のデータを取得するのに必要なタイムウインドウのために、ネットワークが攻撃を受けやすいようにする。
ここでは、「ワンショットラーニング」と呼ばれる補完的なアプローチで、新しい攻撃クラスを識別するために、新しい攻撃クラスの限られた例を用いる。
Siamese Networkは、機能ではなく、ペアの類似性に基づいてクラスを区別するように訓練されており、新しい、以前は目に見えない攻撃を識別することができる。
論文 参考訳(メタデータ) (2020-06-27T11:40:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。