論文の概要: ZSpeedL -- Evaluating the Performance of Zero-Shot Learning Methods
using Low-Power Devices
- arxiv url: http://arxiv.org/abs/2110.04535v1
- Date: Sat, 9 Oct 2021 10:31:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-16 23:53:46.837726
- Title: ZSpeedL -- Evaluating the Performance of Zero-Shot Learning Methods
using Low-Power Devices
- Title(参考訳): ZSpeedL -- 低消費電力デバイスを用いたゼロショット学習手法の性能評価
- Authors: Cristiano Patr\'icio, Jo\~ao Neves
- Abstract要約: 本稿ではゼロショット学習の推論時間に関する最初のベンチマークを提供する。
本稿では,ResNet101アーキテクチャのデファクトの精度を低下させることなく,軽量ネットワークが全体の推論時間を劇的に短縮できることを示す。
また、このベンチマークでは、低消費電力デバイスで異なるZSLアプローチがどのように機能するか、また、このハードウェアで視覚的特徴抽出フェーズをどのように最適化できるかを評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The recognition of unseen objects from a semantic representation or textual
description, usually denoted as zero-shot learning, is more prone to be used in
real-world scenarios when compared to traditional object recognition.
Nevertheless, no work has evaluated the feasibility of deploying zero-shot
learning approaches in these scenarios, particularly when using low-power
devices. In this paper, we provide the first benchmark on the inference time of
zero-shot learning, comprising an evaluation of state-of-the-art approaches
regarding their speed/accuracy trade-off. An analysis to the processing time of
the different phases of the ZSL inference stage reveals that visual feature
extraction is the major bottleneck in this paradigm, but, we show that
lightweight networks can dramatically reduce the overall inference time without
reducing the accuracy obtained by the de facto ResNet101 architecture. Also,
this benchmark evaluates how different ZSL approaches perform in low-power
devices, and how the visual feature extraction phase could be optimized in this
hardware. To foster the research and deployment of ZSL systems capable of
operating in real-world scenarios, we release the evaluation framework used in
this benchmark (https://github.com/CristianoPatricio/zsl-methods).
- Abstract(参考訳): 意味表現やテキスト記述から見えないオブジェクトを認識することは、通常ゼロショット学習と呼ばれ、従来のオブジェクト認識と比較して現実世界のシナリオで使われる傾向が強い。
それでも、特に低消費電力デバイスを使用する場合において、ゼロショット学習アプローチをこれらのシナリオに展開する可能性を評価した成果はない。
本稿では,ゼロショット学習の速度/精度トレードオフに関する最先端手法の評価を含む,ゼロショット学習の推論時間に関する最初のベンチマークを提供する。
ZSL推論段階の異なるフェーズの処理時間を解析したところ、このパラダイムでは視覚的特徴抽出が主要なボトルネックとなっていることが分かるが、軽量ネットワークは、ResNet101アーキテクチャのデファクトの精度を低下させることなく、全体の推論時間を劇的に削減できることを示した。
また、このベンチマークでは、低消費電力デバイスで異なるZSLアプローチがどのように機能するか、また、このハードウェアで視覚的特徴抽出フェーズをどのように最適化できるかを評価する。
実世界のシナリオで運用可能なZSLシステムの研究と展開を促進するため,このベンチマークで使用される評価フレームワーク(https://github.com/CristianoPatricio/zsl-methods)をリリースする。
関連論文リスト
- Masked Momentum Contrastive Learning for Zero-shot Semantic
Understanding [39.424931953675994]
自己教師付き事前学習(SSP)は、ラベル付きデータなしで有意義な特徴表現を抽出できる機械学習の一般的な手法として登場した。
本研究は、コンピュータビジョンタスクにおける純粋な自己教師付き学習(SSL)技術の有効性を評価する。
論文 参考訳(メタデータ) (2023-08-22T13:55:57Z) - Adaptive Local-Component-aware Graph Convolutional Network for One-shot
Skeleton-based Action Recognition [54.23513799338309]
骨格に基づく行動認識のための適応的局所成分認識グラフ畳み込みネットワークを提案する。
我々の手法はグローバルな埋め込みよりも強力な表現を提供し、我々のモデルが最先端に到達するのに役立ちます。
論文 参考訳(メタデータ) (2022-09-21T02:33:07Z) - Efficient Human Vision Inspired Action Recognition using Adaptive
Spatiotemporal Sampling [13.427887784558168]
本稿では,効率的な行動認識処理のための適応型視覚システムを提案する。
本システムでは,グローバルコンテキストサンプリング方式を低解像度で事前スキャンし,高精細な領域で高精細な特徴をスキップしたり,要求したりすることを決定した。
動作認識のためのEPIC-KENSとUCF-101データセットを用いたシステムの有効性を検証するとともに,提案手法により,最先端のベースラインに比べて精度の低下を許容し,推論を大幅に高速化できることを示す。
論文 参考訳(メタデータ) (2022-07-12T01:18:58Z) - Cross-modal Representation Learning for Zero-shot Action Recognition [67.57406812235767]
我々は、ゼロショット動作認識(ZSAR)のためのビデオデータとテキストラベルを共同で符号化するクロスモーダルトランスフォーマーベースのフレームワークを提案する。
我々のモデルは概念的に新しいパイプラインを使用し、視覚的表現と視覚的意味的関連をエンドツーエンドで学習する。
実験結果から,本モデルはZSARの芸術的状況に大きく改善され,UCF101,HMDB51,ActivityNetベンチマークデータセット上でトップ1の精度が向上した。
論文 参考訳(メタデータ) (2022-05-03T17:39:27Z) - An Entropy-guided Reinforced Partial Convolutional Network for Zero-Shot
Learning [77.72330187258498]
エントロピー誘導強化部分畳み込みネットワーク(ERPCNet)を提案する。
ERPCNetは、人間のアノテーションのない意味的関連性と視覚的相関に基づいて、局所性を抽出し、集約する。
グローバルな協力的局所性を動的に発見するだけでなく、ポリシー勾配最適化のためにより高速に収束する。
論文 参考訳(メタデータ) (2021-11-03T11:13:13Z) - FREE: Feature Refinement for Generalized Zero-Shot Learning [86.41074134041394]
汎用ゼロショット学習(GZSL)は、視覚-意味的領域ギャップと目に見えないバイアスの問題を克服するために多くの努力を払って、大きな進歩を遂げた。
既存のほとんどのメソッドはImageNetでトレーニングされた機能抽出モデルを直接使用しており、ImageNetとGZSLベンチマークのデータセット間のバイアスを無視している。
本稿では,この問題に対処するために,汎用ゼロショット学習(FREE)のための特徴改善という,シンプルで効果的なGZSL法を提案する。
論文 参考訳(メタデータ) (2021-07-29T08:11:01Z) - Zero-Shot Instance Segmentation [4.457471295379149]
ゼロショットインスタンスセグメンテーション (ZSI) と呼ばれる新しいタスクセットを提案する。
トレーニングフェーズでは、モデルは可視データでトレーニングされるが、テストフェーズでは、すべての可視および不可視のインスタンスをセグメントするために使用される。
MS-COCOデータセットに基づくゼロショットインスタンスセグメンテーションの新しいベンチマークを提示する。
論文 参考訳(メタデータ) (2021-04-14T03:02:48Z) - Region Comparison Network for Interpretable Few-shot Image
Classification [97.97902360117368]
新しいクラスのモデルをトレーニングするために、ラベル付きサンプルの限られた数だけを効果的に活用するための画像分類が提案されている。
本研究では,領域比較ネットワーク (RCN) と呼ばれる距離学習に基づく手法を提案する。
また,タスクのレベルからカテゴリへの解釈可能性の一般化も提案する。
論文 参考訳(メタデータ) (2020-09-08T07:29:05Z) - Prototypical Contrastive Learning of Unsupervised Representations [171.3046900127166]
原型コントラスト学習(Prototypeal Contrastive Learning, PCL)は、教師なし表現学習法である。
PCLは暗黙的にデータのセマンティック構造を学習された埋め込み空間にエンコードする。
PCLは、複数のベンチマークで最先端のインスタンスワイド・コントラスト学習法より優れている。
論文 参考訳(メタデータ) (2020-05-11T09:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。