論文の概要: Revelio: A Real-World Screen-Camera Communication System with Visually Imperceptible Data Embedding
- arxiv url: http://arxiv.org/abs/2501.02349v1
- Date: Sat, 04 Jan 2025 18:05:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-07 16:36:51.096052
- Title: Revelio: A Real-World Screen-Camera Communication System with Visually Imperceptible Data Embedding
- Title(参考訳): Revelio: 視覚的に認識不能なデータ埋め込みを備えた実世界のスクリーンカメラ通信システム
- Authors: Abbaas Alif Mohamed Nishar, Shrinivas Kudekar, Bernard Kintzing, Ashwin Ashok,
- Abstract要約: 我々は,OKLAB色空間における時間的フレッカ融合を利用した実世界のスクリーンカメラ通信システムであるRevelioについて述べる。
Revelioは、ノイズ、非同期性、およびスクリーンカメラチャネルの歪みに対して頑健さを維持しながら、視覚的に知覚できないデータ埋め込みを実現する。
- 参考スコア(独自算出の注目度): 1.9924262168387745
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present `Revelio', a real-world screen-camera communication system leveraging temporal flicker fusion in the OKLAB color space. Using spatially-adaptive flickering and encoding information in pixel region shapes, Revelio achieves visually imperceptible data embedding while remaining robust against noise, asynchronicity, and distortions in screen-camera channels, ensuring reliable decoding by standard smartphone cameras. The decoder, driven by a two-stage neural network, uses a weighted differential accumulator for precise frame detection and symbol recognition. Initial experiments demonstrate Revelio's effectiveness in interactive television, offering an unobtrusive method for meta-information transmission.
- Abstract(参考訳): 我々は,OKLAB色空間における時間的フレッカ融合を利用した実世界のスクリーンカメラ通信システムである「Revelio」を提案する。
Revelioは、空間適応的なフレッカリングと、ピクセル領域の形状のエンコード情報を用いて、ノイズ、非同期性、およびスクリーンカメラチャネルの歪みに対して頑健さを維持しながら、視覚的に知覚できないデータ埋め込みを実現し、標準のスマートフォンカメラによる信頼性の高い復号を実現する。
2段階のニューラルネットワークによって駆動されるデコーダは、正確なフレーム検出とシンボル認識のために重み付き微分アキュムレータを使用する。
最初の実験では、インタラクティブテレビにおけるRevelioの有効性を実証し、メタ情報伝送の控えめな方法を提供した。
関連論文リスト
- E-VLC: A Real-World Dataset for Event-based Visible Light Communication And Localization [4.269675382023856]
イベントカメラはLED信号のデコードやLEDマーカーの位置に対するカメラへのデコードに使用することができる。
さまざまな現実世界の設定でデコードとローカライゼーションをベンチマークする公開データセットは存在しない。
ハードウェアトリガと正確に同期した、イベントカメラ、フレームカメラ、グラウンドトルースポーズからなる、最初のパブリックデータセットを提示する。
論文 参考訳(メタデータ) (2025-04-25T17:43:20Z) - SEDS: Semantically Enhanced Dual-Stream Encoder for Sign Language Retrieval [82.51117533271517]
以前はRGBビデオをエンコードするだけで高レベルのセマンティックな特徴が得られていた。
既存のRGBベースの手話検索作業は、エンドツーエンドのトレーニングに埋め込まれた濃密な視覚データによる膨大なメモリコストに悩まされる。
本稿では,Semantically Enhanced Dual-Streamという手話表現フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-23T11:31:11Z) - Neuromorphic Synergy for Video Binarization [54.195375576583864]
バイモーダルオブジェクトは視覚システムによって容易に認識できる情報を埋め込む視覚形式として機能する。
ニューロモルフィックカメラは、動きのぼかしを緩和する新しい機能を提供するが、最初にブルーを脱色し、画像をリアルタイムでバイナライズするのは簡単ではない。
本稿では,イベント空間と画像空間の両方で独立に推論を行うために,バイモーダル目標特性の事前知識を活用するイベントベースバイナリ再構築手法を提案する。
また、このバイナリ画像を高フレームレートバイナリビデオに伝搬する効率的な統合手法も開発している。
論文 参考訳(メタデータ) (2024-02-20T01:43:51Z) - Information hiding cameras: optical concealment of object information
into ordinary images [11.41487037469984]
本稿では,電子デコーダと統合された光情報隠蔽カメラについて紹介する。
この情報隠蔽復号システムは、人間のオブザーバーを欺いたり誤解させたりするような、普通の見た目のパターンで入力画像を変換・隠蔽する、回折光学プロセッサをフロントエンドとして採用する。
これらの通常の出力画像を処理することにより、共同学習された電子デコーダニューラルネットワークは、偽りの出力パターン内に隠された元の情報を正確に再構成する。
論文 参考訳(メタデータ) (2024-01-15T17:37:27Z) - Aggregating Nearest Sharp Features via Hybrid Transformers for Video Deblurring [70.06559269075352]
本稿では,隣接するフレームと既存のシャープフレームの両方を特徴集約のためにハイブリッドトランスフォーマーを用いて活用するビデオデブロアリング手法を提案する。
検出されたシャープフレームから最も近いシャープ特徴を集約するために,マルチスケールマッチング機能を備えたグローバルトランスを利用する。
提案手法は,定量的な計測値と視覚的品質の観点から,最先端のビデオデブロアリング法,およびイベント駆動ビデオデブロアリング法より優れる。
論文 参考訳(メタデータ) (2023-09-13T16:12:11Z) - Revisiting Event-based Video Frame Interpolation [49.27404719898305]
ダイナミックビジョンセンサーやイベントカメラは、ビデオフレームに豊富な補完情報を提供する。
イベントからの光の流れを推定することは、RGB情報より間違いなく困難である。
イベントベースの中間フレーム合成を複数の単純化段階において漸進的に行う分割・対数戦略を提案する。
論文 参考訳(メタデータ) (2023-07-24T06:51:07Z) - Video Frame Interpolation with Stereo Event and Intensity Camera [40.07341828127157]
高品質な中間フレームを生成するための新しいステレオイベントベースVFIネットワーク(SE-VFI-Net)を提案する。
我々は,正確な光学的流れと不均一性推定を実現するために,融合した特徴を利用する。
提案するSEVFI-Netは最先端の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2023-07-17T04:02:00Z) - Dual Memory Aggregation Network for Event-Based Object Detection with
Learnable Representation [79.02808071245634]
イベントベースのカメラはバイオインスパイアされたセンサーで、各ピクセルの明るさ変化を非同期に捉える。
イベントストリームは、正極性と負極性の両方のためにx-y-t座標の格子に分割され、3次元テンソル表現として柱の集合が生成される。
長メモリは適応型convLSTMの隠れ状態に符号化され、短メモリはイベントピラー間の空間的時間的相関を計算することによってモデル化される。
論文 参考訳(メタデータ) (2023-03-17T12:12:41Z) - Event-Based Frame Interpolation with Ad-hoc Deblurring [68.97825675372354]
本稿では,入力ビデオのアドホックを損なうイベントベースフレームの一般的な手法を提案する。
我々のネットワークは、フレーム上の最先端の手法、単一画像のデブロアリング、および共同作業のデブロアリングを一貫して上回ります。
コードとデータセットは公開されます。
論文 参考訳(メタデータ) (2023-01-12T18:19:00Z) - Stereo Hybrid Event-Frame (SHEF) Cameras for 3D Perception [17.585862399941544]
イベントカメラは、各ピクセルの明るさ変化を微妙な時間分解能で独立に報告する際、制限に対処する。
統合型複合イベントフレームセンサー(DAVIS)が利用可能だが、データの品質はそのようなカメラの回路製造におけるピクセルレベルでの結合によって損なわれる。
本稿では,高品質なイベントカメラと純粋なフレームカメラを分離したセンサモダリティを提供するステレオハイブリッドイベントフレーム(SHEF)カメラシステムを提案する。
論文 参考訳(メタデータ) (2021-10-11T04:03:36Z) - DeepLight: Robust & Unobtrusive Real-time Screen-Camera Communication
for Real-World Displays [4.632704227272501]
DeepLightは、デコードパイプラインに機械学習(ML)モデルを取り入れ、人間に受け入れられない、適度に高いSCCレートを実現するシステムです。
DeepLightの主な革新は、ディスプレイフレームに空間的にエンコードされたすべてのビットをまとめてデコードするDeep Neural Network(DNN)ベースのデコーダの設計です。
論文 参考訳(メタデータ) (2021-05-11T14:44:12Z) - Dense Interaction Learning for Video-based Person Re-identification [75.03200492219003]
ビデオベースの人物再ID問題に取り組むために,Dense Interaction Learning (DenseIL) というハイブリッドフレームワークを提案する。
DenseILにはCNNエンコーダとDense Interaction (DI)デコーダが含まれている。
当社の実験は、複数の標準ビデオベースの再IDデータセットにおけるすべての最先端の手法を一貫して大幅に上回ります。
論文 参考訳(メタデータ) (2021-03-16T12:22:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。