論文の概要: EgoQR: Efficient QR Code Reading in Egocentric Settings
- arxiv url: http://arxiv.org/abs/2410.05497v1
- Date: Mon, 07 Oct 2024 21:06:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-10 14:33:49.720766
- Title: EgoQR: Efficient QR Code Reading in Egocentric Settings
- Title(参考訳): EgoQR:エゴセントリック設定での効率的なQRコード読み込み
- Authors: Mohsen Moslehpour, Yichao Lu, Pierce Chuang, Ashish Shenoy, Debojeet Chatterjee, Abhay Harpale, Srihari Jayakumar, Vikas Bhardwaj, Seonghyeon Nam, Anuj Kumar,
- Abstract要約: 本稿では,エゴセントリック画像からQRコードを読み取る新しいシステムであるEgoQRを紹介する。
当社のアプローチは,デバイス上で高解像度の画像を操作するために設計された,検出と復号の2つの主要コンポーネントで構成されている。
我々は,エゴセントリックな画像のデータセットに対するアプローチを評価し,既存のQRコードリーダの状況と比較して,コードの読みやすさが34%向上したことを示す。
- 参考スコア(独自算出の注目度): 9.522585805664233
- License:
- Abstract: QR codes have become ubiquitous in daily life, enabling rapid information exchange. With the increasing adoption of smart wearable devices, there is a need for efficient, and friction-less QR code reading capabilities from Egocentric point-of-views. However, adapting existing phone-based QR code readers to egocentric images poses significant challenges. Code reading from egocentric images bring unique challenges such as wide field-of-view, code distortion and lack of visual feedback as compared to phones where users can adjust the position and framing. Furthermore, wearable devices impose constraints on resources like compute, power and memory. To address these challenges, we present EgoQR, a novel system for reading QR codes from egocentric images, and is well suited for deployment on wearable devices. Our approach consists of two primary components: detection and decoding, designed to operate on high-resolution images on the device with minimal power consumption and added latency. The detection component efficiently locates potential QR codes within the image, while our enhanced decoding component extracts and interprets the encoded information. We incorporate innovative techniques to handle the specific challenges of egocentric imagery, such as varying perspectives, wider field of view, and motion blur. We evaluate our approach on a dataset of egocentric images, demonstrating 34% improvement in reading the code compared to an existing state of the art QR code readers.
- Abstract(参考訳): QRコードは日常的にユビキタスになり、迅速な情報交換を可能にしている。
スマートウェアラブルデバイスの採用が増えるにつれ、Egoセントリックな視点から効率よく、摩擦のないQRコードを読み取る能力が求められている。
しかし、既存の電話ベースのQRコードリーダーをエゴセントリックなイメージに適応させることは、大きな課題となる。
エゴセントリック画像からのコード読み込みは、ユーザーが位置やフレーミングを調整できる携帯電話と比較して、視野の広さ、コードの歪み、視覚的フィードバックの欠如といった、ユニークな課題をもたらす。
さらに、ウェアラブルデバイスは、計算、電力、メモリなどのリソースに制約を課している。
これらの課題に対処するために、エゴセントリックな画像からQRコードを読み取る新しいシステムであるEgoQRを紹介し、ウェアラブルデバイスへの展開に適している。
当社のアプローチは2つの主要コンポーネントで構成されている。検出と復号化であり、最小消費電力で高解像度の画像をデバイス上で動作させるように設計されている。
検出コンポーネントは、画像内の潜在的なQRコードを効率よく検出し、強化された復号化コンポーネントは、符号化された情報を抽出し、解釈する。
我々は、様々な視点、広い視野、動きのぼやけなど、エゴセントリックなイメージの特定の課題に対処する革新的な手法を取り入れた。
我々は,エゴセントリックな画像のデータセットに対するアプローチを評価し,既存のQRコードリーダーと比較して,コードの読みやすさが34%向上したことを示す。
関連論文リスト
- PPRSteg: Printing and Photography Robust QR Code Steganography via Attention Flow-Based Model [35.831644960576035]
QRコードステガノグラフィーは、自然な画像に非自然なイメージを埋め込むことを目的としており、復元されたQRコードを認識する必要がある。
本稿では,QRコードをホスト画像に隠蔽する機能を持つPing and Photography Robust Steganography(PPRSteg)という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-26T03:16:40Z) - CodeEnhance: A Codebook-Driven Approach for Low-Light Image Enhancement [97.95330185793358]
低照度画像強調(LLIE)は、低照度画像を改善することを目的としている。
既存の手法では、様々な明るさ劣化からの回復の不確実性と、テクスチャと色情報の喪失という2つの課題に直面している。
我々は、量子化された先行値と画像の精細化を利用して、新しいエンハンスメント手法、CodeEnhanceを提案する。
論文 参考訳(メタデータ) (2024-04-08T07:34:39Z) - Text2QR: Harmonizing Aesthetic Customization and Scanning Robustness for
Text-Guided QR Code Generation [38.281805719692194]
デジタル時代には、QRコードは仮想空間と物理領域を繋ぐリンチピンとして機能する。
一般的な方法は、カスタマイズとスキャナビリティのバランスをとるという、本質的な課題に対処します。
本稿では,安定拡散モデルを利用した先駆的アプローチであるText2QRを紹介する。
論文 参考訳(メタデータ) (2024-03-11T06:03:31Z) - Dual Associated Encoder for Face Restoration [68.49568459672076]
低品質(LQ)画像から顔の詳細を復元するために,DAEFRという新しいデュアルブランチフレームワークを提案する。
提案手法では,LQ入力から重要な情報を抽出する補助的なLQ分岐を導入する。
合成と実世界の両方のデータセットに対するDAEFRの有効性を評価する。
論文 参考訳(メタデータ) (2023-08-14T17:58:33Z) - Collaborative Auto-encoding for Blind Image Quality Assessment [17.081262827258943]
ブラインド画像品質評価(BIQA)は、重要な現実世界のアプリケーションにおいて難しい問題である。
近年、ディープニューラルネットワーク(DNN)による強力な表現を活用しようとする試みは、主観的な注釈付きデータの欠如によって妨げられている。
本稿では,この基本的な障害を克服する新しいBIQA法を提案する。
論文 参考訳(メタデータ) (2023-05-24T03:45:03Z) - Towards Accurate Image Coding: Improved Autoregressive Image Generation
with Dynamic Vector Quantization [73.52943587514386]
既存のベクトル量子化(VQ)ベースの自己回帰モデルは、2段階生成パラダイムに従う。
画像領域を可変長符号に符号化する動的量子化VAE(DQ-VAE)を提案する。
論文 参考訳(メタデータ) (2023-05-19T14:56:05Z) - A Study of Autoregressive Decoders for Multi-Tasking in Computer Vision [93.90545426665999]
マルチモーダルコンピュータビジョンにおけるマルチタスク学習のための自動回帰デコーダについて詳しく検討する。
鍵となる発見は、凍結した事前訓練されたエンコーダの上で学んだ小さなデコーダが驚くほどうまく機能していることである。
これはデコーダに自然言語で事前訓練された視覚モデルと対話するように教えるものであると見なすことができる。
論文 参考訳(メタデータ) (2023-03-30T13:42:58Z) - Medical visual question answering using joint self-supervised learning [8.817054025763325]
エンコーダは、自己アテンション機構で画像-テキスト二重モードに埋め込まれる。
デコーダはエンコーダの上部に接続され、小型の医療用VQAデータセットを使用して微調整される。
論文 参考訳(メタデータ) (2023-02-25T12:12:22Z) - Learning Enriched Features for Fast Image Restoration and Enhancement [166.17296369600774]
本稿では,ネットワーク全体を通して空間的精度の高い高解像度表現を維持することを目的とする。
我々は、高解像度の空間的詳細を同時に保存しながら、複数のスケールからの文脈情報を組み合わせた豊富な特徴集合を学習する。
提案手法は,デフォーカス・デブロアリング,画像デノイング,超解像,画像強調など,さまざまな画像処理タスクに対して,最先端の処理結果を実現する。
論文 参考訳(メタデータ) (2022-04-19T17:59:45Z) - An End-to-end Method for Producing Scanning-robust Stylized QR Codes [45.35370585928748]
そこで我々はArtCoderという新しいエンドツーエンド手法を提案し,QRコードをスタイリングする。
実験の結果,スタイリングQRコードは視覚効果とスキャニング・ロバスト性の両方において高品質であることがわかった。
論文 参考訳(メタデータ) (2020-11-16T09:38:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。