論文の概要: Siamese Labels Auxiliary Network(SiLaNet)
- arxiv url: http://arxiv.org/abs/2103.00200v1
- Date: Sat, 27 Feb 2021 12:07:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-03 16:46:29.946080
- Title: Siamese Labels Auxiliary Network(SiLaNet)
- Title(参考訳): Siamese Labels Auxiliary Network (SiLaNet)
- Authors: Wenrui Gan, Zhulin Liu, C. L. Philip Chen, Tong Zhang
- Abstract要約: 新たな選択肢とアーキテクチャを備えた新しいトレーニング手法を提案する。
シームズラベルは訓練段階で補助モジュールとして使用された。
SilaNetは、モデルパラメータを50%圧縮し、同時に高精度を保証するために適用されます。
- 参考スコア(独自算出の注目度): 71.64301235063843
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Auxiliary information attracts more and more attention in the area of machine
learning. Attempts so far to include such auxiliary information in
state-of-the-art learning process have often been based on simply appending
these auxiliary features to the data level or feature level. In this paper, we
intend to propose a novel training method with new options and architectures.
Siamese labels, which were used in the training phase as auxiliary modules.
While in the testing phase, the auxiliary module should be removed. Siamese
label module makes it easier to train and improves the performance in testing
process. In general, the main contributions can be summarized as, 1) Siamese
Labels are firstly proposed as auxiliary information to improve the learning
efficiency; 2) We establish a new architecture, Siamese Labels Auxiliary
Network (SilaNet), which is to assist the training of the model; 3) Siamese
Labels Auxiliary Network is applied to compress the model parameters by 50% and
ensure the high accuracy at the same time. For the purpose of comparison, we
tested the network on CIFAR-10 and CIFAR100 using some common models. The
proposed SilaNet performs excellent efficiency both on the accuracy and
robustness.
- Abstract(参考訳): 補助情報は、機械学習の分野でますます注目を集めています。
このような補助情報を最先端の学習プロセスに含める試みは、単にこれらの補助機能をデータレベルや機能レベルに追加することに基づいていることが多い。
本稿では,新しい選択肢とアーキテクチャを備えた新しいトレーニング手法を提案する。
トレーニング段階で補助モジュールとして使用されたSiameseラベル。
テストフェーズでは、補助モジュールは削除されるべきである。
Siameseのラベル モジュールはテスト プロセスの性能を訓練し、改善することを容易にします。
一般的に、主な貢献は、1)Siamese Labelsは、学習効率を向上させるための補助情報として最初に提案され、2)我々は、モデルのトレーニングを支援する新しいアーキテクチャ、Siamese Labels Auxiliary Network(SilaNet)を確立し、3)Siamese Labels Auxiliary Networkは、モデルのパラメータを50%圧縮し、同時に高精度を確保するために適用されます。
比較のために,CIFAR-10とCIFAR100のネットワークを,いくつかの共通モデルを用いてテストした。
提案したSilaNetは精度とロバスト性の両方で優れた効率性を実現している。
関連論文リスト
- Aquila2 Technical Report [11.418157335282313]
Aquila2シリーズは、パラメータサイズが7, 34, 70億の幅広いバイリンガルモデルで構成されている。
これらのモデルは、モデル収束に関するリアルタイム洞察を提供するHeuriMentor(HM)という革新的なフレームワークに基づいてトレーニングされている。
適応訓練エンジン(ATE)、訓練状態モニター(TSM)、データ管理ユニット(DMU)で構成されるHMシステムは、モデルのトレーニング進捗を正確に監視することができる。
論文 参考訳(メタデータ) (2024-08-14T09:34:19Z) - SLADE: A Self-Training Framework For Distance Metric Learning [75.54078592084217]
我々は、追加のラベルのないデータを活用することで、検索性能を向上させるための自己学習フレームワークSLADEを提案する。
まず、ラベル付きデータに基づいて教師モデルをトレーニングし、ラベルなしデータに対して擬似ラベルを生成する。
次に、最終機能埋め込みを生成するために、ラベルと擬似ラベルの両方で学生モデルをトレーニングします。
論文 参考訳(メタデータ) (2020-11-20T08:26:10Z) - Lightweight Single-Image Super-Resolution Network with Attentive
Auxiliary Feature Learning [73.75457731689858]
本稿では,SISR の注意補助機能 (A$2$F) に基づく計算効率が高く正確なネットワークを構築した。
大規模データセットを用いた実験結果から,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2020-11-13T06:01:46Z) - Fast Few-Shot Classification by Few-Iteration Meta-Learning [173.32497326674775]
数ショット分類のための高速な最適化に基づくメタラーニング手法を提案する。
我々の戦略はメタ学習において学習すべき基礎学習者の目的の重要な側面を可能にする。
我々は、我々のアプローチの速度と効果を実証し、総合的な実験分析を行う。
論文 参考訳(メタデータ) (2020-10-01T15:59:31Z) - Few-shot Learning with LSSVM Base Learner and Transductive Modules [20.323443723115275]
計算オーバーヘッドの少ない既存のものよりも優れた生成を実現するベース学習機として,マルチクラス最小二乗支援ベクトルマシンを導入している。
また、クエリーサンプルを使用してサポートセットを変更する、シンプルで効果的なトランスダクティブモジュールを2つ提案する。
我々のモデルはFSLSTMと呼ばれ、MiniImageNetとCIFAR-FSによる数ショット学習ベンチマークで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2020-09-12T13:16:55Z) - Prior Guided Feature Enrichment Network for Few-Shot Segmentation [64.91560451900125]
最先端のセマンティックセグメンテーション手法は、良い結果を得るために十分なラベル付きデータを必要とする。
少数のラベル付きサポートサンプルを持つ新しいクラスに迅速に適応するモデルを学習することで,この問題に対処するためのショットセグメンテーションが提案されている。
これらのフレームワークは、高レベルのセマンティック情報の不適切な使用により、目に見えないクラスにおける一般化能力の低下という課題に直面している。
論文 参考訳(メタデータ) (2020-08-04T10:41:32Z) - Cross-Domain Few-Shot Learning with Meta Fine-Tuning [8.062394790518297]
我々はCVPR 2020 Challengeで提案された新しいクロスドメインFew-Shot Learningベンチマークに取り組む。
ドメイン適応および数ショット学習における最先端の手法に基づいて、両方のタスクを実行するためにトレーニング可能なシステムを構築する。
論文 参考訳(メタデータ) (2020-05-21T09:55:26Z) - Efficient Crowd Counting via Structured Knowledge Transfer [122.30417437707759]
クラウドカウントはアプリケーション指向のタスクであり、その推論効率は現実世界のアプリケーションにとって不可欠である。
本稿では,学生ネットワークを軽量かつ高効率に構築する構造的知識伝達フレームワークを提案する。
我々のモデルはNvidia 1080 GPUで最低6.5$times$のスピードアップを取得し、最先端のパフォーマンスも達成しています。
論文 参考訳(メタデータ) (2020-03-23T08:05:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。