論文の概要: Enhanced Information Fusion Network for Crowd Counting
- arxiv url: http://arxiv.org/abs/2101.04279v1
- Date: Tue, 12 Jan 2021 03:35:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-04 01:46:16.618100
- Title: Enhanced Information Fusion Network for Crowd Counting
- Title(参考訳): クラウドカウントのための強化情報融合ネットワーク
- Authors: Geng Chen and Peirong Guo
- Abstract要約: カラム間の情報冗長性の問題を解決するために, カラム間機能融合ネットワークを提案する。
異なる列が別の列から重要な情報を得るのを助けるための情報フローのためのチャネルを提供する情報融合モジュール(IFM)を紹介します。
- 参考スコア(独自算出の注目度): 6.2517309445569325
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, crowd counting, a technique for predicting the number of
people in an image, becomes a challenging task in computer vision. In this
paper, we propose a cross-column feature fusion network to solve the problem of
information redundancy in columns. We introduce the Information Fusion Module
(IFM) which provides a channel for information flow to help different columns
to obtain significant information from another column. Through this channel,
different columns exchange information with each other and extract useful
features from the other column to enhance key information. Hence, there is no
need for columns to pay attention to all areas in the image. Each column can be
responsible for different regions, thereby reducing the burden of each column.
In experiments, the generalizability of our model is more robust and the
results of transferring between different datasets acheive the comparable
results with the state-of-the-art models.
- Abstract(参考訳): 近年,画像中の人物数を予測する手法である群集カウントは,コンピュータビジョンにおける課題となっている。
本稿では,カラム内の情報冗長性問題を解決するために,クロスカラム特徴融合ネットワークを提案する。
我々は,異なる列が他の列から重要な情報を得るのを助けるために,情報フローのチャネルを提供する情報融合モジュール(IFM)を紹介する。
このチャネルを通じて、異なる列が情報を交換し、他の列から有用な特徴を抽出し、キー情報を強化する。
したがって、イメージ内のすべての領域に注意を払うためにカラムは必要ない。
各列は異なる領域に責任を持ち、各列の負担を軽減できる。
実験では、モデルの一般化性はより堅牢で、異なるデータセット間で転送した結果は最先端のモデルと同等の結果が得られます。
関連論文リスト
- Infrared and Visible Image Fusion: From Data Compatibility to Task Adaption [65.06388526722186]
赤外線可視画像融合はコンピュータビジョンにおいて重要な課題である。
この急成長する領域に対処する、最近の包括的な調査が欠如している。
本稿では,共通学習に基づくIVIF手法の解明のための多次元フレームワークを提案する。
論文 参考訳(メタデータ) (2025-01-18T13:17:34Z) - Multi-scale Feature Aggregation for Crowd Counting [84.45773306711747]
マルチスケール特徴集約ネットワーク(MSFANet)を提案する。
MSFANetは、ショートアグリゲーション(ShortAgg)とスキップアグリゲーション(SkipAgg)の2つの機能アグリゲーションモジュールで構成されている。
論文 参考訳(メタデータ) (2022-08-10T10:23:12Z) - Hybrid Transformer with Multi-level Fusion for Multimodal Knowledge
Graph Completion [112.27103169303184]
マルチモーダル知識グラフ(MKG)は、視覚テキストの事実知識を整理する。
MKGformerは、マルチモーダルリンク予測、マルチモーダルRE、マルチモーダルNERの4つのデータセット上でSOTA性能を得ることができる。
論文 参考訳(メタデータ) (2022-05-04T23:40:04Z) - LILE: Look In-Depth before Looking Elsewhere -- A Dual Attention Network
using Transformers for Cross-Modal Information Retrieval in Histopathology
Archives [0.7614628596146599]
クロスモダリティデータ検索は多くの分野や研究分野の要件となっている。
本研究では,共同潜在空間における画像やテキストの表現を支援するために,新たな損失項を持つ新しいアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-03-02T22:42:20Z) - A Unified Deep Model of Learning from both Data and Queries for
Cardinality Estimation [28.570086492742035]
本稿では,データと問合せ作業負荷の両方から共同データ分布を学習する統合された深部自己回帰モデルUAEを提案する。
UAEは1桁の乗算誤差を尾で達成し、最先端の手法よりも精度が良く、空間も時間も効率的である。
論文 参考訳(メタデータ) (2021-07-26T16:09:58Z) - TCN: Table Convolutional Network for Web Table Interpretation [52.32515851633981]
テーブル内情報とテーブル間情報の両方を考慮した新しいテーブル表現学習手法を提案する。
カラムタイプ予測ではf1の4.8%、カラム対関係予測ではf1の4.1%で競合ベースラインを上回ることができる。
論文 参考訳(メタデータ) (2021-02-17T02:18:10Z) - Efficient Human Pose Estimation by Learning Deeply Aggregated
Representations [67.24496300046255]
深く集約された表現を学習することで、効率的な人間ポーズ推定ネットワーク(DANet)を提案する。
私たちのネットワークは、より小さなモデルの複雑さで、同等またはより良い精度を達成できます。
論文 参考訳(メタデータ) (2020-12-13T10:58:07Z) - V3H: View Variation and View Heredity for Incomplete Multi-view
Clustering [65.29597317608844]
不完全なマルチビュークラスタリングは、これらの不完全なビューを統合する効果的な方法である。
本稿では,この制限を克服するために,新しいビューバージョニング・ビュー・ジェレダリティ・アプローチ(V3H)を提案する。
V3Hは、不完全なマルチビューデータから一貫した情報とユニークな情報を同時に学習するためのクラスタリングアルゴリズムに遺伝学を導入する最初の研究である可能性がある。
論文 参考訳(メタデータ) (2020-11-23T03:24:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。