論文の概要: Watching TV with the Second-Party: A First Look at Automatic Content Recognition Tracking in Smart TVs
- arxiv url: http://arxiv.org/abs/2409.06203v1
- Date: Tue, 10 Sep 2024 04:15:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-11 19:10:55.548174
- Title: Watching TV with the Second-Party: A First Look at Automatic Content Recognition Tracking in Smart TVs
- Title(参考訳): 第2部でテレビを見る:スマートTVにおけるコンテンツの自動認識
- Authors: Gianluca Anselmi, Yash Vekaria, Alexander D'Souza, Patricia Callejo, Anna Maria Mandalari, Zubair Shafiq,
- Abstract要約: スマートTVは、ユーザの視聴活動をプロファイルするために、ACR(Automatic Content Recognition)と呼ばれるユニークなトラッキングアプローチを実装している。
ACRはShazamライクな技術で、TV画面に表示されるコンテンツを定期的にキャプチャし、コンテンツライブラリとマッチングすることで、任意の時点で表示されているコンテンツを検出する。
スマートTVとACRサーバ上でACRクライアント間のACRネットワークトラフィックのブラックボックス監査を行う。
- 参考スコア(独自算出の注目度): 46.51887093897395
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Smart TVs implement a unique tracking approach called Automatic Content Recognition (ACR) to profile viewing activity of their users. ACR is a Shazam-like technology that works by periodically capturing the content displayed on a TV's screen and matching it against a content library to detect what content is being displayed at any given point in time. While prior research has investigated third-party tracking in the smart TV ecosystem, it has not looked into second-party ACR tracking that is directly conducted by the smart TV platform. In this work, we conduct a black-box audit of ACR network traffic between ACR clients on the smart TV and ACR servers. We use our auditing approach to systematically investigate whether (1) ACR tracking is agnostic to how a user watches TV (e.g., linear vs. streaming vs. HDMI), (2) privacy controls offered by smart TVs have an impact on ACR tracking, and (3) there are any differences in ACR tracking between the UK and the US. We perform a series of experiments on two major smart TV platforms: Samsung and LG. Our results show that ACR works even when the smart TV is used as a "dumb" external display, opting-out stops network traffic to ACR servers, and there are differences in how ACR works across the UK and the US.
- Abstract(参考訳): スマートTVは、ユーザの視聴活動をプロファイルするために、ACR(Automatic Content Recognition)と呼ばれるユニークなトラッキングアプローチを実装している。
ACRはShazamライクな技術で、TV画面に表示されるコンテンツを定期的にキャプチャし、コンテンツライブラリとマッチングすることで、任意の時点で表示されているコンテンツを検出する。
これまでの研究では、スマートTVのエコシステムにおけるサードパーティの追跡を調査してきたが、スマートTVプラットフォームによって直接実行されるサードパーティのACR追跡は検討されていない。
本研究では、スマートTVとACRサーバ上のACRクライアント間のACRネットワークトラフィックのブラックボックス監査を行う。
我々は,(1)ACRトラッキングがテレビの視聴方法(例えば,リニア対ストリーミング対HDMI)に非依存であるか,(2)スマートTVが提供するプライバシーコントロールがACRトラッキングに与える影響,(3)英国と米国のACRトラッキングに何らかの違いがあるかを体系的に調査するために,監査手法を用いた。
われわれはSamsungとLGの2大スマートTVプラットフォームで一連の実験を行っている。
以上の結果から,スマートTVを外部ディスプレイとして使用した場合でも,ACRサーバへのネットワークトラフィックのオプトアウトが停止し,ACRが英国と米国でどのように動作するかが異なることがわかった。
関連論文リスト
- Benchmarking Vision-Language Models on Optical Character Recognition in Dynamic Video Environments [3.5936169218390703]
本稿では、動的ビデオ環境における光学的文字認識(OCR)タスクの視覚言語モデル(VLM)を評価するためのオープンソースのベンチマークを提案する。
コードエディタ,ニュースブロードキャスト,YouTubeビデオ,広告など,さまざまな領域にまたがる1,477の注釈付きフレームを含むキュレートデータセットを提案する。
論文 参考訳(メタデータ) (2025-02-10T13:20:19Z) - EchoTrack: Auditory Referring Multi-Object Tracking for Autonomous Driving [64.58258341591929]
聴覚参照マルチオブジェクトトラッキング(AR-MOT)は、自律運転において難しい問題である。
私たちは、デュアルストリーム・ビジョン・トランスフォーマーを備えたエンドツーエンドのAR-MOTフレームワークであるEchoTrackを提案しました。
大規模AR-MOTベンチマークの最初のセットを確立する。
論文 参考訳(メタデータ) (2024-02-28T12:50:16Z) - CoVR-2: Automatic Data Construction for Composed Video Retrieval [59.854331104466254]
Composed Image Retrieval (CoIR) はテキストと画像のクエリを一緒に考えるタスクとして最近人気を集めている。
本稿では,ビデオキャプションペアのトリプレットを生成する,スケーラブルな自動データセット作成手法を提案する。
また、コンポジションビデオ検索(CoVR)を含むタスクの範囲を広げる。
論文 参考訳(メタデータ) (2023-08-28T17:55:33Z) - DISGO: Automatic End-to-End Evaluation for Scene Text OCR [16.231114992450895]
我々は,シーンテキストOCRを評価するための新しい測定基準として,単語誤り率(WER)を均一に利用する。
特にe2eメトリックについては、削除、挿入、置換、グループ化/順序付けエラーを考慮したdisGO WERと名付けます。
論文 参考訳(メタデータ) (2023-08-25T04:45:37Z) - To show or not to show: Redacting sensitive text from videos of
electronic displays [4.621328863799446]
我々は,光学文字認識 (OCR) と自然言語処理 (NLP) を組み合わせて,ビデオから個人識別可能なテキストを再生成する手法を定義する。
具体的には,Google Cloud Vision (GCV) の Tesseract と OCR システムを,異なる OCR モデルで使用する場合の,このアプローチの相対的性能について検討する。
論文 参考訳(メタデータ) (2022-08-19T07:53:04Z) - CTA-RNN: Channel and Temporal-wise Attention RNN Leveraging Pre-trained
ASR Embeddings for Speech Emotion Recognition [20.02248459288662]
本稿では,事前学習されたASRモデルの中間表現に基づく新しいチャネルと時間的注意RNNアーキテクチャを提案する。
本稿では,IEMOCAP と MSP-IMPROV の2つのベンチマークデータセットに対するアプローチを評価する。
論文 参考訳(メタデータ) (2022-03-31T13:32:51Z) - Dual Causal/Non-Causal Self-Attention for Streaming End-to-End Speech
Recognition [58.69803243323346]
注意に基づくエンドツーエンド自動音声認識(ASR)システムは、最近、多くのタスクに対する最先端の結果を実証している。
しかし、自己注意および注意に基づくエンコーダデコーダモデルの応用は、ASRのストリーミングでは依然として困難である。
二重因果的/非因果的自己注意アーキテクチャを提案するが、これは制限された自己意識とは対照的に、全体的なコンテキストが単一のレイヤのルックアヘッドを超えて成長することを妨げている。
論文 参考訳(メタデータ) (2021-07-02T20:56:13Z) - Robust Visual Object Tracking with Two-Stream Residual Convolutional
Networks [62.836429958476735]
視覚追跡のための2ストリーム残差畳み込みネットワーク(TS-RCN)を提案する。
私たちのTS-RCNは、既存のディープラーニングベースのビジュアルトラッカーと統合することができます。
トラッキング性能をさらに向上するため、我々はResNeXtを特徴抽出バックボーンとして採用する。
論文 参考訳(メタデータ) (2020-05-13T19:05:42Z) - TVR: A Large-Scale Dataset for Video-Subtitle Moment Retrieval [111.93601253692165]
テレビ番組 Retrieval (TVR) は、新しいマルチモーダル検索データセットである。
TVRはビデオとそれに関連するサブタイトル(対話)のテキストの両方を理解する必要がある。
データセットには、さまざまなジャンルの6つのテレビ番組から21.8Kビデオで収集された109Kクエリが含まれている。
論文 参考訳(メタデータ) (2020-01-24T17:09:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。