論文の概要: Private Eye: On the Limits of Textual Screen Peeking via Eyeglass
Reflections in Video Conferencing
- arxiv url: http://arxiv.org/abs/2205.03971v1
- Date: Sun, 8 May 2022 23:29:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-10 17:06:41.296679
- Title: Private Eye: On the Limits of Textual Screen Peeking via Eyeglass
Reflections in Video Conferencing
- Title(参考訳): プライベートアイ:ビデオ会議における眼鏡反射によるテキストスクリーンの覗き込み限界について
- Authors: Yan Long, Chen Yan, Shivan Prasad, Wenyuan Xu, Kevin Fu
- Abstract要約: ビデオは参加者の画面上の情報をリークする。
本研究は, 数学的モデリングと人体実験を用いて, 出現するウェブカメラが認識可能なテキスト情報を漏洩する程度について検討する。
本研究は,多フレーム超解像技術を用いて,映像フレームのシーケンス上での光学的攻撃に基づく脅威モデルの検討と特徴付けを行う。
- 参考スコア(独自算出の注目度): 18.84055230013228
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Personal video conferencing has become the new norm after COVID-19 caused a
seismic shift from in-person meetings and phone calls to video conferencing for
daily communications and sensitive business. Video leaks participants'
on-screen information because eyeglasses and other reflective objects
unwittingly expose partial screen contents. Using mathematical modeling and
human subjects experiments, this research explores the extent to which emerging
webcams might leak recognizable textual information gleamed from eyeglass
reflections captured by webcams. The primary goal of our work is to measure,
compute, and predict the factors, limits, and thresholds of recognizability as
webcam technology evolves in the future. Our work explores and characterizes
the viable threat models based on optical attacks using multi-frame super
resolution techniques on sequences of video frames. Our experimental results
and models show it is possible to reconstruct and recognize on-screen text with
a height as small as 10 mm with a 720p webcam. We further apply this threat
model to web textual content with varying attacker capabilities to find
thresholds at which text becomes recognizable. Our user study with 20
participants suggests present-day 720p webcams are sufficient for adversaries
to reconstruct textual content on big-font websites. Our models further show
that the evolution toward 4K cameras will tip the threshold of text leakage to
reconstruction of most header texts on popular websites. Our research proposes
near-term mitigations, and justifies the importance of following the principle
of least privilege for long-term defense against this attack. For
privacy-sensitive scenarios, it's further recommended to develop technologies
that blur all objects by default, then only unblur what is absolutely necessary
to facilitate natural-looking conversations.
- Abstract(参考訳): 新型コロナウイルス(COVID-19)は、個人会議や電話会議から、日々のコミュニケーションや機密業務のためのビデオ会議へと揺れてきた。
メガネやその他の反射性のある物体が、不当に画面の一部を露出するため、ビデオは参加者の画面上の情報をリークする。
この研究は、数学的モデリングと人体実験を用いて、Webカメラが捉えた眼鏡の反射から得られる認識可能なテキスト情報を、新興のウェブカメラがどの程度漏洩するかを探索する。
私たちの研究の主な目標は、Webカメラ技術が今後進化するにつれて、認識可能性の要因、限界、しきい値を測定し、計算し、予測することにあります。
本研究は,マルチフレームのスーパーレゾリューション技術を用いて,映像フレームのシーケンス上での光攻撃に基づく脅威モデルの探索と特徴付けを行う。
実験結果とモデルから,720pのウェブカメラで最大10mmの高さの画面上テキストを再構成し,認識することが可能であった。
さらに,この脅威モデルを,攻撃能力の異なる web テキストコンテンツに適用して,テキスト認識のしきい値を求める。
参加者20名を対象にしたユーザ調査の結果,720pのウェブカメラは,大画面webサイト上でのテキストコンテンツの復元に十分であることが示唆された。
われわれのモデルは、4Kカメラへの進化がテキストリークのしきい値に近づき、人気のあるウェブサイトのほとんどのヘッダテキストが復元されることを示している。
本研究は,短期的緩和を提案し,この攻撃に対する長期防衛の最小特権原則に従うことの重要性を正当化するものである。
プライバシに敏感なシナリオでは、デフォルトですべてのオブジェクトをぼかす技術を開発すること、そして自然に見える会話を促進するために必要なものだけを曖昧にすることが推奨されている。
関連論文リスト
- Deepfake detection in videos with multiple faces using geometric-fakeness features [79.16635054977068]
被害者や人物のディープフェイクは、脅迫、ゆがみ、金融詐欺の詐欺師によって使用される。
本研究では,映像中の顔の存在の動的度を特徴付ける幾何学的フェイクネス機能(GFF)を提案する。
我々は、ビデオに同時に存在する複数の顔でビデオを分析するために、我々のアプローチを採用している。
論文 参考訳(メタデータ) (2024-10-10T13:10:34Z) - CausalVE: Face Video Privacy Encryption via Causal Video Prediction [13.577971999457164]
ビデオやライブストリーミングのWebサイトの普及に伴い、公開対面のビデオ配信とインタラクションは、プライバシー上のリスクを増大させる。
これらの欠点に対処するニューラルネットワークフレームワークCausalVEを提案する。
我々のフレームワークは、公開ビデオの拡散において優れたセキュリティを有し、定性的、量的、視覚的な観点から最先端の手法より優れている。
論文 参考訳(メタデータ) (2024-09-28T10:34:22Z) - Predicting Long-horizon Futures by Conditioning on Geometry and Time [49.86180975196375]
我々は,過去を前提とした将来のセンサ観測の課題を探求する。
マルチモーダリティを扱える画像拡散モデルの大規模事前学習を活用する。
我々は、屋内と屋外のシーンにまたがる多様なビデオのセットについて、ビデオ予測のためのベンチマークを作成する。
論文 参考訳(メタデータ) (2024-04-17T16:56:31Z) - CustomVideo: Customizing Text-to-Video Generation with Multiple Subjects [61.323597069037056]
テキスト・ビデオ・ジェネレーションのパーソナライズへの現在のアプローチは、複数の課題に対処することに悩まされている。
複数の被験者の指導でアイデンティティ保存ビデオを生成する新しいフレームワークであるCustomVideoを提案する。
論文 参考訳(メタデータ) (2024-01-18T13:23:51Z) - Bidirectional Cross-Modal Knowledge Exploration for Video Recognition
with Pre-trained Vision-Language Models [149.1331903899298]
本稿では,双方向の知識を探索するクロスモーダルブリッジを用いた,BIKEと呼ばれる新しいフレームワークを提案する。
本研究では,テキスト・トゥ・ビデオの専門知識を用いて時間的サリエンシをパラメータフリーでキャプチャする時間的概念スポッティング機構を提案する。
我々の最良のモデルは、リリースしたCLIPモデルを使用して、Kinetics-400の挑戦に対して、最先端の精度88.6%を達成する。
論文 参考訳(メタデータ) (2022-12-31T11:36:53Z) - Recovering Surveillance Video Using RF Cues [5.818870353966268]
CSI2Videoは,細粒度監視映像をリアルタイムに再現するクロスモーダルな手法である。
我々のソリューションは、高価な無線機器を使わずにリアルな監視ビデオを生成し、ユビキタスで安価でリアルタイムな特性を持つ。
論文 参考訳(メタデータ) (2022-12-27T01:57:03Z) - Detection of Real-time DeepFakes in Video Conferencing with Active
Probing and Corneal Reflection [43.272069005626584]
本稿では,リアルタイムのDeepFakeを検出するための新しい法医学的手法について述べる。
我々は、画面上に異なるパターンを表示し、通話参加者の顔の画像から抽出した角膜反射を用いて、ビデオ通話を認証する。
このパターンは、共有画面に表示された呼び出し参加者またはビデオコールクライアントに直接統合された呼び出し参加者によって誘導される。
論文 参考訳(メタデータ) (2022-10-21T23:31:17Z) - Real Time Action Recognition from Video Footage [0.5219568203653523]
ビデオ監視カメラは犯罪を検知する新しい次元を追加した。
本研究は、暴力行為を検出するための自律監視のための堅牢なパイプラインを確保するために、最先端のディープラーニング手法を統合することに焦点を当てる。
論文 参考訳(メタデータ) (2021-12-13T07:27:41Z) - Video Generation from Text Employing Latent Path Construction for
Temporal Modeling [70.06508219998778]
ビデオ生成は、機械学習とコンピュータビジョンの分野における最も困難なタスクの1つである。
本稿では,映像生成の条件形式であるテキストから映像生成の問題に取り組む。
自然言語文からのビデオ生成が人工知能に重要な影響を与えると考えている。
論文 参考訳(メタデータ) (2021-07-29T06:28:20Z) - Egocentric Videoconferencing [86.88092499544706]
ビデオ会議は、価値ある非言語コミュニケーションと表情の手がかりを描写するが、通常は前面カメラを必要とする。
本稿では、スマートグラスに統合可能な低コストのウェアラブルエゴセントリックカメラセットを提案する。
私たちのゴールは、古典的なビデオ通話を模倣することであり、それゆえ、私たちはこのカメラの自我中心の視点を前向きのビデオに変えます。
論文 参考訳(メタデータ) (2021-07-07T09:49:39Z) - Zoom on the Keystrokes: Exploiting Video Calls for Keystroke Inference
Attacks [4.878606901631679]
近年の世界では、ビデオ通話が、個人とプロの両方のリモートコミュニケーションの新しい標準となっている。
我々は、コールのビデオストリームであるキーストロークからそのようなプライベート情報を推測するための攻撃フレームワークを設計し、評価する。
本稿では,ビデオ通話中にユーザを自動で保護する効果的な緩和手法を提案し,評価する。
論文 参考訳(メタデータ) (2020-10-22T21:38:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。