論文の概要: Grafted network for person re-identification
- arxiv url: http://arxiv.org/abs/2006.01967v2
- Date: Sat, 6 Jun 2020 05:25:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-26 00:48:30.211054
- Title: Grafted network for person re-identification
- Title(参考訳): 人物再識別のためのグラフトネットワーク
- Authors: Jiabao Wang, Yang Li, Shanshan Jiao, Zhuang Miao, Rui Zhang
- Abstract要約: 畳み込みニューラルネットワークは、人物再同定(re-ID)において顕著な効果を示した
本稿では,高精度根茎と軽量シオンをグラフトした新しいグラフトネットワーク(GraftedNet)を提案する。
実験の結果、GraftedNetはランキング1で93.02%、85.3%、76.2%、mAPで81.6%、74.7%、71.6%を達成した。
- 参考スコア(独自算出の注目度): 14.372506245952383
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional neural networks have shown outstanding effectiveness in person
re-identification (re-ID). However, the models always have large number of
parameters and much computation for mobile application. In order to relieve
this problem, we propose a novel grafted network (GraftedNet), which is
designed by grafting a high-accuracy rootstock and a light-weighted scion. The
rootstock is based on the former parts of ResNet-50 to provide a strong
baseline, while the scion is a new designed module, composed of the latter
parts of SqueezeNet, to compress the parameters. To extract more discriminative
feature representation, a joint multi-level and part-based feature is proposed.
In addition, to train GraftedNet efficiently, we propose an accompanying
learning method, by adding an accompanying branch to train the model in
training and removing it in testing for saving parameters and computation. On
three public person re-ID benchmarks (Market1501, DukeMTMC-reID and CUHK03),
the effectiveness of GraftedNet are evaluated and its components are analyzed.
Experimental results show that the proposed GraftedNet achieves 93.02%, 85.3%
and 76.2% in Rank-1 and 81.6%, 74.7% and 71.6% in mAP, with only 4.6M
parameters.
- Abstract(参考訳): 畳み込みニューラルネットワークは、人物の再識別(re-ID)において顕著な効果を示した。
しかし、モデルは常に多くのパラメータを持ち、モバイルアプリケーションのための計算量が多い。
そこで本研究では,高精度根材と軽量シイオンをグラフトした新しいグラフトネットワーク(graftednet)を提案する。
ルートストックはResNet-50の以前の部分に基づいて強力なベースラインを提供し、一方cionはSqueezeNetの後半部分で構成され、パラメータを圧縮する新しい設計モジュールである。
より識別的な特徴表現を抽出するために、多レベルおよび部分に基づくジョイント特徴を提案する。
さらに,グラフトednetを効率的にトレーニングするために,モデルのトレーニングに付随するブランチを追加し,パラメータや計算を省くためのテストにおいてそれを削除することにより,学習方法を提案する。
3つの公開人物re-idベンチマーク(market1501, dukemtmc-reid, cuhk03)において, graftednetの有効性を評価し,その構成成分を解析した。
実験の結果、GraftedNetはランキング1で93.02%、85.3%、76.2%、mAPで81.6%、74.7%、71.6%を達成した。
関連論文リスト
- Performance Analysis of Various EfficientNet Based U-Net++ Architecture
for Automatic Building Extraction from High Resolution Satellite Images [0.0]
ビルディング抽出は高解像度リモートセンシング画像のセマンティックセグメンテーションに大きく依存している。
本研究では,ネットワークバックボーンをベースとした様々なU-Net++を提案する。
実験結果によると,提案モデルは従来の最先端アプローチよりも有意に優れていた。
論文 参考訳(メタデータ) (2023-09-05T18:14:14Z) - Systematic Architectural Design of Scale Transformed Attention Condenser
DNNs via Multi-Scale Class Representational Response Similarity Analysis [93.0013343535411]
マルチスケールクラス表現応答類似性分析(ClassRepSim)と呼ばれる新しいタイプの分析法を提案する。
ResNetスタイルのアーキテクチャにSTACモジュールを追加すると、最大1.6%の精度が向上することを示す。
ClassRepSim分析の結果は、STACモジュールの効果的なパラメータ化を選択するために利用することができ、競争性能が向上する。
論文 参考訳(メタデータ) (2023-06-16T18:29:26Z) - CNN-transformer mixed model for object detection [3.5897534810405403]
本稿では,トランスを用いた畳み込みモジュールを提案する。
CNNが抽出した詳細特徴と変換器が抽出したグローバル特徴とを融合させることにより、モデルの認識精度を向上させることを目的とする。
Pascal VOCデータセットでの100ラウンドのトレーニングの後、結果の精度は81%に達し、resnet101[5]をバックボーンとして使用したRCNN[4]よりも4.6向上した。
論文 参考訳(メタデータ) (2022-12-13T16:35:35Z) - Prompt Tuning for Parameter-efficient Medical Image Segmentation [79.09285179181225]
2つの医用画像データセットのセマンティックセグメンテーションにパラメータ効率が良いが効果的な適応を実現するために,いくつかのコントリビューションを提案し,検討する。
我々はこのアーキテクチャを、オンライン生成プロトタイプへの割り当てに基づく専用密集型セルフスーパービジョンスキームで事前訓練する。
得られたニューラルネットワークモデルにより、完全に微調整されたモデルとパラメータに適応したモデルとのギャップを緩和できることを実証する。
論文 参考訳(メタデータ) (2022-11-16T21:55:05Z) - Learning to Learn with Generative Models of Neural Network Checkpoints [71.06722933442956]
ニューラルネットワークのチェックポイントのデータセットを構築し,パラメータの生成モデルをトレーニングする。
提案手法は,幅広い損失プロンプトに対するパラメータの生成に成功している。
我々は、教師付きおよび強化学習における異なるニューラルネットワークアーキテクチャとタスクに本手法を適用した。
論文 参考訳(メタデータ) (2022-09-26T17:59:58Z) - EdgeNeXt: Efficiently Amalgamated CNN-Transformer Architecture for
Mobile Vision Applications [68.35683849098105]
入力テンソルを複数のチャネルグループに分割するSDTAエンコーダを導入する。
1.3Mパラメータを持つEdgeNeXtモデルでは、ImageNet-1Kで71.2%のTop-1精度を実現している。
パラメータ5.6MのEdgeNeXtモデルでは、ImageNet-1Kで79.4%のTop-1精度を実現しています。
論文 参考訳(メタデータ) (2022-06-21T17:59:56Z) - LilNetX: Lightweight Networks with EXtreme Model Compression and
Structured Sparsification [36.651329027209634]
LilNetXは、ニューラルネットワークのためのエンドツーエンドのトレーニング可能なテクニックである。
特定の精度-レート-計算トレードオフを持つ学習モデルを可能にする。
論文 参考訳(メタデータ) (2022-04-06T17:59:10Z) - Bayesian Convolutional Neural Networks for Seven Basic Facial Expression
Classifications [5.365808418695478]
7つの基本的な表情分類は、複雑な人間の感情を表現する基本的な方法である。
従来のベイズニューラルネットワークフレームワークに基づいて,本稿で構築したResNet18_BNNネットワークを改善した。
論文 参考訳(メタデータ) (2021-07-10T13:09:13Z) - Non-Parametric Adaptive Network Pruning [125.4414216272874]
アルゴリズム設計を簡略化するノンパラメトリックモデリングを導入。
顔認識コミュニティに触発されて,メッセージパッシングアルゴリズムを用いて,適応的な例示数を求める。
EPrunerは「重要」フィルタを決定する際にトレーニングデータへの依存を壊します。
論文 参考訳(メタデータ) (2021-01-20T06:18:38Z) - Inception Convolution with Efficient Dilation Search [121.41030859447487]
拡散畳み込みは、効果的な受容場を制御し、オブジェクトの大規模な分散を処理するための標準的な畳み込みニューラルネットワークの重要な変異体である。
そこで我々は,異なる軸,チャネル,層間の独立な拡散を有する拡張畳み込みの新たな変異体,すなわち開始(拡張)畳み込みを提案する。
本稿では,データに複雑なインセプション・コンボリューションを適合させる実用的な手法を探索し,統計的最適化に基づく簡易かつ効果的な拡張探索アルゴリズム(EDO)を開発した。
論文 参考訳(メタデータ) (2020-12-25T14:58:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。