論文の概要: Monitoring Viewer Attention During Online Ads
- arxiv url: http://arxiv.org/abs/2504.06237v1
- Date: Tue, 08 Apr 2025 17:34:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-09 13:29:30.429908
- Title: Monitoring Viewer Attention During Online Ads
- Title(参考訳): オンライン広告における視聴者意識のモニタリング
- Authors: Mina Bishay, Graham Page, Waleed Emad, Mohammad Mavadati,
- Abstract要約: 大手ブランドは、新しい広告の好みと購入意図を測り、オンラインで募集された視聴者の顔の反応を分析して、自宅や職場から広告を見る。
不注意な参加者は、広告テストのプロセスを盗むのを避けるために、フラグを立てて排除するべきです。
オンライン広告中の視聴者の注意をモニタリングするアーキテクチャを導入する。
- 参考スコア(独自算出の注目度): 0.5499796332553706
- License:
- Abstract: Nowadays, video ads spread through numerous online platforms, and are being watched by millions of viewers worldwide. Big brands gauge the liking and purchase intent of their new ads, by analyzing the facial responses of viewers recruited online to watch the ads from home or work. Although this approach captures naturalistic responses, it is susceptible to distractions inherent in the participants' environments, such as a movie playing on TV, a colleague speaking, or mobile notifications. Inattentive participants should get flagged and eliminated to avoid skewing the ad-testing process. In this paper we introduce an architecture for monitoring viewer attention during online ads. Leveraging two behavior analysis toolkits; AFFDEX 2.0 and SmartEye SDK, we extract low-level facial features encompassing facial expressions, head pose, and gaze direction. These features are then combined to extract high-level features that include estimated gaze on the screen plane, yawning, speaking, etc -- this enables the identification of four primary distractors; off-screen gaze, drowsiness, speaking, and unattended screen. Our architecture tailors the gaze settings according to the device type (desktop or mobile). We validate our architecture first on datasets annotated for specific distractors, and then on a real-world ad testing dataset with various distractors. The proposed architecture shows promising results in detecting distraction across both desktop and mobile devices.
- Abstract(参考訳): 現在、ビデオ広告は多数のオンラインプラットフォームに広がり、世界中の何百万もの視聴者が視聴している。
大手ブランドは、新しい広告の好みと購入意図を測り、オンラインで募集された視聴者の顔の反応を分析して、自宅や職場から広告を見る。
このアプローチは自然主義的な反応を捉えるが、テレビで上映する映画、同僚の会話、モバイル通知など、参加者の環境に固有の気晴らしの影響を受けやすい。
不注意な参加者は、広告テストのプロセスを盗むのを避けるために、フラグを立てて排除するべきです。
本稿では,オンライン広告中の視聴者の注意をモニタリングするアーキテクチャを提案する。
AFFDEX 2.0 と SmartEye SDK の2つの行動分析ツールキットを活用し,顔表情,頭部ポーズ,視線方向を含む低レベルの顔特徴を抽出する。
これらの特徴が組み合わされ、画面面上の推定視線、あくび、話しなどを含む高レベルな特徴が抽出される。
私たちのアーキテクチャは、デバイスタイプ(デスクトップまたはモバイル)に応じて、視線設定を調整します。
アーキテクチャをまず、特定のイントラクタにアノテートされたデータセットで検証し、次に、さまざまなイントラクタを備えた実世界の広告テストデータセット上で検証します。
提案したアーキテクチャは,デスクトップとモバイルの両デバイス間の干渉を検出する上で有望な結果を示す。
関連論文リスト
- Analysis of Unstructured High-Density Crowded Scenes for Crowd Monitoring [55.2480439325792]
我々は,人群集の組織的動きを検出する自動システムの開発に興味がある。
コンピュータビジョンアルゴリズムは、混雑したシーンのビデオから情報を抽出することができる。
組織化されたコホート内の参加者数を見積もることができます。
論文 参考訳(メタデータ) (2024-08-06T22:09:50Z) - Object Recognition System on a Tactile Device for Visually Impaired [1.2891210250935146]
このデバイスは、視覚情報を聴覚フィードバックに変換し、ユーザが自分の環境を、感覚的なニーズに合った形で理解できるようにする。
装置が特定の位置にタッチされると、シーンに存在する物体の識別を視覚障害者に伝える音声信号を提供する。
論文 参考訳(メタデータ) (2023-07-05T11:37:17Z) - Egocentric Audio-Visual Object Localization [51.434212424829525]
本研究では,エゴモーションを明示的に処理する時空間アグリゲーションモジュールを提案する。
エゴモーションの効果は、時間的幾何変換を推定し、それを利用して視覚的表現を更新することによって緩和される。
視覚的に指示された音声表現をアンタングルすることで、モーダルな局所化の堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-03-23T17:43:11Z) - Private Eye: On the Limits of Textual Screen Peeking via Eyeglass
Reflections in Video Conferencing [18.84055230013228]
ビデオは参加者の画面上の情報をリークする。
本研究は, 数学的モデリングと人体実験を用いて, 出現するウェブカメラが認識可能なテキスト情報を漏洩する程度について検討する。
本研究は,多フレーム超解像技術を用いて,映像フレームのシーケンス上での光学的攻撃に基づく脅威モデルの検討と特徴付けを行う。
論文 参考訳(メタデータ) (2022-05-08T23:29:13Z) - Stochastic Coherence Over Attention Trajectory For Continuous Learning
In Video Streams [64.82800502603138]
本稿では,映像ストリーム中のピクセルワイズ表現を段階的かつ自律的に開発するための,ニューラルネットワークに基づく新しいアプローチを提案する。
提案手法は, 参加者の入場地を観察することで, エージェントが学習できる, 人間の様の注意機構に基づく。
実験では,3次元仮想環境を利用して,映像ストリームを観察することで,エージェントが物体の識別を学べることを示す。
論文 参考訳(メタデータ) (2022-04-26T09:52:31Z) - Real or Virtual: A Video Conferencing Background Manipulation-Detection
System [25.94894351460089]
実際のビデオ会議と仮想ビデオ会議のユーザ背景を区別する検出戦略を提案する。
敵が考える異なる敵攻撃に対する検出器の堅牢性を示す。
結果,実物は仮想背景から99.80%の精度で識別できることが判明した。
論文 参考訳(メタデータ) (2022-04-25T08:14:11Z) - Leveraging Real Talking Faces via Self-Supervision for Robust Forgery
Detection [112.96004727646115]
本研究では,実話を用いた顔操作映像の検出手法を開発した。
本手法は, クロスマニピュレーションの一般化とロバストネス実験における最先端性能を実現する。
以上の結果から、より堅牢な顔偽造検知器の開発には、自然ビデオと未表示ビデオの活用が有望な方向であることが示唆された。
論文 参考訳(メタデータ) (2022-01-18T17:14:54Z) - Attention Mechanisms in Computer Vision: A Survey [75.6074182122423]
本稿では,コンピュータビジョンにおける様々な注意機構について概観する。
チャネルアテンション,空間アテンション,時間アテンション,分岐アテンションなど,アプローチによって分類する。
我々は注意機構研究の今後の方向性を提案する。
論文 参考訳(メタデータ) (2021-11-15T09:18:40Z) - ASOD60K: Audio-Induced Salient Object Detection in Panoramic Videos [79.05486554647918]
本研究では,パノラマビデオから有能な物体を分離する新しいタスクであるPV-SODを提案する。
既存の固定レベルやオブジェクトレベルの塩分濃度検出タスクとは対照的に,多モードの塩分濃度検出(SOD)に焦点を当てる。
AsOD60Kという,6レベル階層の4K解像度ビデオフレームを含む,最初の大規模データセットを収集する。
論文 参考訳(メタデータ) (2021-07-24T15:14:20Z) - Detecting Attended Visual Targets in Video [25.64146711657225]
実世界の視線行動の複雑な動的パターンを含む新しいアノテーション付きデータセットVideoAttentionTargetを導入する。
実験の結果,ビデオの動的注意を効果的に推測できることがわかった。
ウェアラブルカメラやアイトラッカーを使わずに臨床関連視線行動を自動的に分類する最初の結果を得た。
論文 参考訳(メタデータ) (2020-03-05T09:29:48Z) - Contextual Sense Making by Fusing Scene Classification, Detections, and
Events in Full Motion Video [0.7348448478819135]
本研究では,航空FMVのデータの利用と活用に関する人間アナリストのニーズに対処することを目的とする。
問題を,(1)コンテキスト認識,(2)オブジェクトカタログ化,(3)イベント検出の3つのタスクに分割した。
地理的領域の異なる解像度の異なるセンサのデータに対して,本手法を適用した。
論文 参考訳(メタデータ) (2020-01-16T18:26:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。