論文の概要: Benchmark for Anonymous Video Analytics
- arxiv url: http://arxiv.org/abs/2009.14684v3
- Date: Sun, 3 Oct 2021 12:25:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 00:04:34.324167
- Title: Benchmark for Anonymous Video Analytics
- Title(参考訳): 匿名ビデオ解析のためのベンチマーク
- Authors: Ricardo Sanchez-Matilla and Andrea Cavallaro
- Abstract要約: 家庭外の観客測定は、物理的な世界で広告コンテンツに晒されている人々を数え、特徴付けることを目的としている。
本研究は,観客の地域化とカウント,および観客人口の視覚に基づくタスクを評価する,家庭外のデジタル視聴率測定のための最初のベンチマークを提案する。
- 参考スコア(独自算出の注目度): 44.591265059034484
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Out-of-home audience measurement aims to count and characterize the people
exposed to advertising content in the physical world. While audience
measurement solutions based on computer vision are of increasing interest, no
commonly accepted benchmark exists to evaluate and compare their performance.
In this paper, we propose the first benchmark for digital out-of-home audience
measurement that evaluates the vision-based tasks of audience localization and
counting, and audience demographics. The benchmark is composed of a novel,
dataset captured at multiple locations and a set of performance measures. Using
the benchmark, we present an in-depth comparison of eight open-source
algorithms on four hardware platforms with GPU and CPU-optimized inferences and
of two commercial off-the-shelf solutions for localization, count, age, and
gender estimation. This benchmark and related open-source codes are available
at http://ava.eecs.qmul.ac.uk.
- Abstract(参考訳): 家庭外の観客測定は、物理的な世界で広告コンテンツにさらされている人々を数え、特徴づけることを目的としている。
コンピュータビジョンに基づくオーディエンス計測ソリューションは注目度が高いが,評価と比較を行うベンチマークは一般的には存在していない。
本稿では,聴衆の地域化と数えることによる視覚的タスクを評価可能な,家庭外のデジタル視聴率測定のための最初のベンチマークを提案する。
ベンチマークは、複数の場所でキャプチャされた新しいデータセットと、一連のパフォーマンス指標で構成されている。
このベンチマークを用いて,gpuおよびcpu最適化推論を用いた4つのハードウェアプラットフォーム上での8つのオープンソースアルゴリズムと,ローカライズ,数,年齢,性別推定のための2つの市販オフ・ザ・シェルフソリューションの詳細な比較を行った。
このベンチマークと関連するオープンソースコードはhttp://ava.eecs.qmul.ac.uk.で入手できる。
関連論文リスト
- Do Text-to-Vis Benchmarks Test Real Use of Visualisations? [11.442971909006657]
本稿では,ベンチマークデータセットと公開リポジトリのコードを比較した実証的研究を通じて,ベンチマークが実世界の利用を反映しているかどうかを考察する。
その結果,実世界の実例と同一のチャート型,属性,行動の分布を評価できないという,大きなギャップがあることが判明した。
1つのデータセットは代表的であるが、実用的なエンドツーエンドベンチマークになるには広範囲な修正が必要である。
これは、ユーザの視覚的ニーズに本当に対処するシステムの開発をサポートするために、新しいベンチマークが必要であることを示している。
論文 参考訳(メタデータ) (2024-07-29T06:13:28Z) - Reframing Audience Expansion through the Lens of Probability Density
Estimation [0.0]
オーディエンス拡大は、マーケターが現在の顧客ベースを代表するサンプルに基づいてターゲットのオーディエンスを作成するのに役立つ。
広範に使われているMNISTデータセットに基づくシミュレーション研究を行い、一貫した高精度とリコール値を用いて、拡張されたオーディエンスにとって最も関連性の高いユーザを特定する能力を示す。
論文 参考訳(メタデータ) (2023-11-10T03:25:53Z) - Perception Test: A Diagnostic Benchmark for Multimodal Video Models [78.64546291816117]
本稿では,事前学習したマルチモーダルモデルの知覚と推論能力を評価するために,新しいマルチモーダルビデオベンチマークを提案する。
知覚テストは、スキル(記憶、抽象化、物理学、セマンティックス)と、ビデオ、オーディオ、テキストモダリティ間の推論(記述的、説明的、予測的、反ファクト的)のタイプに焦点を当てている。
このベンチマークは、ゼロショット/少数ショットまたは限定的な微調整方式で、転送機能の事前訓練されたモデルを探索する。
論文 参考訳(メタデータ) (2023-05-23T07:54:37Z) - HighlightMe: Detecting Highlights from Human-Centric Videos [52.84233165201391]
我々は,人間中心のビデオからハイライト可能な抜粋を検出するために,ドメインとユーザに依存しないアプローチを提案する。
本研究では,時空間グラフ畳み込みを用いたオートエンコーダネットワークを用いて,人間の活動やインタラクションを検出する。
我々は,最先端の手法に比べて,人手によるハイライトのマッチングの平均精度が4~12%向上したことを観察した。
論文 参考訳(メタデータ) (2021-10-05T01:18:15Z) - Rethinking Counting and Localization in Crowds:A Purely Point-Based
Framework [59.578339075658995]
そこで本稿では,共同クラウドカウントと個別ローカライゼーションのための純粋にポイントベースのフレームワークを提案する。
我々は、P2PNet(Point to Point Network)と呼ばれる、このフレームワークの下で直感的なソリューションを設計する。
論文 参考訳(メタデータ) (2021-07-27T11:41:50Z) - CNN-based Density Estimation and Crowd Counting: A Survey [65.06491415951193]
本稿では,主にCNNに基づく密度マップ推定法において,群集数モデルについて包括的に検討する。
評価指標から, 観客数データセットで上位3人のパフォーマーを選択した。
我々は、今後のクラウドカウントの展開について、合理的な推測と予測を行うことを期待する。
論文 参考訳(メタデータ) (2020-03-28T13:17:30Z) - NWPU-Crowd: A Large-Scale Benchmark for Crowd Counting and Localization [101.13851473792334]
我々は,5,109枚の画像からなる大規模集束群集NWPU-Crowdを構築し,合計2,133,375個の点と箱を付加したアノテートヘッドを構築した。
他の実世界のデータセットと比較すると、様々な照明シーンを含み、最大密度範囲 (020,033) を持つ。
本稿では,データ特性について述べるとともに,主要なSOTA(State-of-the-art)手法の性能を評価し,新たなデータに生じる問題を分析する。
論文 参考訳(メタデータ) (2020-01-10T09:26:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。