論文の概要: Learning Error-Driven Curriculum for Crowd Counting
- arxiv url: http://arxiv.org/abs/2007.09676v1
- Date: Sun, 19 Jul 2020 14:18:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 00:24:50.541037
- Title: Learning Error-Driven Curriculum for Crowd Counting
- Title(参考訳): クラウドカウントのためのエラー駆動カリキュラムの学習
- Authors: Wenxi Li, Zhuoqun Cao, Qian Wang, Songjian Chen and Rui Feng
- Abstract要約: そこで本研究では,本ネットワークのトレーニングを補助する追加のネットワークを用いて,エラー駆動型カリキュラムを学習するための新しい学習戦略を提案する。
TutorNetと呼ばれるチューターネットワークは、メインネットワークの致命的なエラーを反復的に示すために提案されている。
- 参考スコア(独自算出の注目度): 13.654369353905329
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Density regression has been widely employed in crowd counting. However, the
frequency imbalance of pixel values in the density map is still an obstacle to
improve the performance. In this paper, we propose a novel learning strategy
for learning error-driven curriculum, which uses an additional network to
supervise the training of the main network. A tutoring network called TutorNet
is proposed to repetitively indicate the critical errors of the main network.
TutorNet generates pixel-level weights to formulate the curriculum for the main
network during training, so that the main network will assign a higher weight
to those hard examples than easy examples. Furthermore, we scale the density
map by a factor to enlarge the distance among inter-examples, which is well
known to improve the performance. Extensive experiments on two challenging
benchmark datasets show that our method has achieved state-of-the-art
performance.
- Abstract(参考訳): 密度回帰は、群衆計数に広く用いられている。
しかし、密度マップにおける画素値の周波数不均衡は、パフォーマンスを改善するための障害である。
本稿では,本ネットワークのトレーニングを補助する追加のネットワークを用いて,エラー駆動型カリキュラムを学習するための新しい学習戦略を提案する。
TutorNetと呼ばれるチューターネットワークが提案され、メインネットワークの致命的なエラーを繰り返し示す。
TutorNetは、トレーニング中にメインネットワークのカリキュラムを定式化するためにピクセルレベルの重みを生成する。
さらに,実測値間の距離を拡大する因子によって密度マップを拡大し,性能向上に寄与することが知られている。
2つの挑戦的なベンチマークデータセットに関する広範囲な実験は、この手法が最先端のパフォーマンスを達成していることを示している。
関連論文リスト
- Diffusion-based Data Augmentation for Object Counting Problems [62.63346162144445]
拡散モデルを用いて広範なトレーニングデータを生成するパイプラインを開発する。
拡散モデルを用いて位置ドットマップ上に条件付き画像を生成するのはこれが初めてである。
提案した拡散モデルにおけるカウント損失は,位置ドットマップと生成した群集画像との差を効果的に最小化する。
論文 参考訳(メタデータ) (2024-01-25T07:28:22Z) - Learning Large-scale Network Embedding from Representative Subgraph [17.812475828673538]
ネットワークマイニングにおける低次元潜在表現の学習を目的とした大規模ネットワーク埋め込みの課題について検討する。
ネットワーク埋め込みの分野での最近の研究は、DeepWalk、LINE、NetMF、NetSMFといった大きな進歩をもたらした。
そこで本研究では,ネットワーク埋め込み学習を行う「NES」という新しいネットワーク埋め込み手法を提案する。
論文 参考訳(メタデータ) (2021-12-02T17:30:11Z) - Self-Supervised Learning for Binary Networks by Joint Classifier
Training [11.612308609123566]
本稿では,バイナリネットワークのための自己教師付き学習手法を提案する。
バイナリネットワークのより良いトレーニングのために,特徴類似性損失,損失項の動的バランススキーム,マルチステージトレーニングの修正を提案する。
実証実験により、BSSLは、下流タスクにおけるバイナリネットワークの自己教師付き学習ベースラインよりも優れ、特定のタスクにおける教師付き事前学習よりも優れています。
論文 参考訳(メタデータ) (2021-10-17T15:38:39Z) - Mixed-Privacy Forgetting in Deep Networks [114.3840147070712]
大規模画像分類タスクにおいてトレーニングされたネットワークの重みからトレーニングサンプルのサブセットの影響を除去できることを示す。
そこで本研究では,混合プライバシー設定における「忘れ」という新しい概念を導入する。
提案手法は,モデル精度のトレードオフを伴わずに忘れることができることを示す。
論文 参考訳(メタデータ) (2020-12-24T19:34:56Z) - Graph-Based Neural Network Models with Multiple Self-Supervised
Auxiliary Tasks [79.28094304325116]
グラフ畳み込みネットワークは、構造化されたデータポイント間の関係をキャプチャするための最も有望なアプローチである。
マルチタスク方式でグラフベースニューラルネットワークモデルを学習するための3つの新しい自己教師付き補助タスクを提案する。
論文 参考訳(メタデータ) (2020-11-14T11:09:51Z) - Fitting the Search Space of Weight-sharing NAS with Graph Convolutional
Networks [100.14670789581811]
サンプルサブネットワークの性能に適合するグラフ畳み込みネットワークを訓練する。
この戦略により、選択された候補集合において、より高いランク相関係数が得られる。
論文 参考訳(メタデータ) (2020-04-17T19:12:39Z) - Learning to Hash with Graph Neural Networks for Recommender Systems [103.82479899868191]
グラフ表現学習は、大規模に高品質な候補探索をサポートすることに多くの注目を集めている。
ユーザ・イテム相互作用ネットワークにおけるオブジェクトの埋め込みベクトルの学習の有効性にもかかわらず、連続的な埋め込み空間におけるユーザの好みを推測する計算コストは膨大である。
連続的かつ離散的なコードとを協調的に学習するための,単純かつ効果的な離散表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-04T06:59:56Z) - Curriculum By Smoothing [52.08553521577014]
畳み込みニューラルネットワーク(CNN)は、画像分類、検出、セグメンテーションなどのコンピュータビジョンタスクにおいて顕著な性能を示している。
アンチエイリアスフィルタやローパスフィルタを用いてCNNの機能埋め込みを円滑化するエレガントなカリキュラムベースのスキームを提案する。
トレーニング中に特徴マップ内の情報量が増加するにつれて、ネットワークはデータのより優れた表現を徐々に学習することができる。
論文 参考訳(メタデータ) (2020-03-03T07:27:44Z) - Energy-efficient and Robust Cumulative Training with Net2Net
Transformation [2.4283778735260686]
本研究では,精度の低下を招くことなく,計算効率のトレーニングを実現する累積学習戦略を提案する。
まず、元のデータセットの小さなサブセット上で小さなネットワークをトレーニングし、その後徐々にネットワークを拡張します。
実験により、スクラッチからのトレーニングと比較すると、累積的なトレーニングは計算複雑性を2倍に減らすことが示された。
論文 参考訳(メタデータ) (2020-03-02T21:44:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。