論文の概要: Imaging for All-Day Wearable Smart Glasses
- arxiv url: http://arxiv.org/abs/2504.13060v1
- Date: Thu, 17 Apr 2025 16:14:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-25 17:50:07.505814
- Title: Imaging for All-Day Wearable Smart Glasses
- Title(参考訳): オールデイウェアラブルスマートグラスのイメージング
- Authors: Michael Goesele, Daniel Andersen, Yujia Chen, Simon Green, Eddy Ilg, Chao Li, Johnson Liu, Grace Kuo, Logan Wan, Richard Newcombe,
- Abstract要約: 将来のスマートグラスは、音量、重量、ファッション性、社会的受容性の要件を満たすために、小さなフォームファクターを採用する必要がある。
本稿では,スマートグラスの撮像領域を体系的に解析し,この撮像領域を規定するいくつかの基本的な限界を導出する。
本稿では,従来のモノリシックカメラの設計と比較して,個々のカメラモジュールのサイズを最小化できる分散イメージング手法を提案する。
- 参考スコア(独自算出の注目度): 6.966013783530527
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years smart glasses technology has rapidly advanced, opening up entirely new areas for mobile computing. We expect future smart glasses will need to be all-day wearable, adopting a small form factor to meet the requirements of volume, weight, fashionability and social acceptability, which puts significant constraints on the space of possible solutions. Additional challenges arise due to the fact that smart glasses are worn in arbitrary environments while their wearer moves and performs everyday activities. In this paper, we systematically analyze the space of imaging from smart glasses and derive several fundamental limits that govern this imaging domain. We discuss the impact of these limits on achievable image quality and camera module size -- comparing in particular to related devices such as mobile phones. We then propose a novel distributed imaging approach that allows to minimize the size of the individual camera modules when compared to a standard monolithic camera design. Finally, we demonstrate the properties of this novel approach in a series of experiments using synthetic data as well as images captured with two different prototype implementations.
- Abstract(参考訳): 近年、スマートグラス技術は急速に進歩し、モバイルコンピューティングのための全く新しい領域を開拓している。
将来のスマートグラスは、音量、重量、ファッション性、社会的受容性といった要件を満たすために、小さなフォームファクターを採用することで、ソリューションの空間に重大な制約が課される、と私たちは期待している。
スマートグラスが任意の環境で着用されているのに対して、着用者が日常的に活動しているため、さらなる課題が生じる。
本稿では,スマートグラスの撮像領域を体系的に解析し,この撮像領域を規定するいくつかの基本的な限界を導出する。
我々は、これらの制限が達成可能な画質とカメラモジュールのサイズに与える影響を、携帯電話などの関連機器と比較する。
次に,従来のモノリシックカメラの設計と比較して,個々のカメラモジュールのサイズを最小化できる分散イメージング手法を提案する。
最後に,この手法の特性を,合成データと2つの異なるプロトタイプ実装による画像を用いた一連の実験で実証した。
関連論文リスト
- Hardware, Algorithms, and Applications of the Neuromorphic Vision Sensor: a Review [0.0]
ニューロモルフィック(Neuromorphic)またはイベントカメラは、検出された1ピクセル当たりの瞬時照明変化をイベントパケットの非同期ストリームに変換する視覚センシングエンコードに対する古典的なアプローチの変換を表す。
彼らの斬新さは、フル画像フレームを一定時間間隔でキャプチャするから、スパースなデータフォーマットへの移行にある。
論文 参考訳(メタデータ) (2025-04-11T14:46:36Z) - FRAME: Floor-aligned Representation for Avatar Motion from Egocentric Video [52.33896173943054]
ヘッドマウントのボディフェイスステレオカメラを備えたエゴセントリックなモーションキャプチャーは、VRやARアプリケーションには不可欠だ。
既存の方法は、合成事前学習と、現実の環境で滑らかで正確な予測を生成するのに苦労している。
本稿では、デバイスポーズとカメラフィードを組み合わせて、最先端のボディポーズ予測を行う、シンプルで効果的なアーキテクチャFRAMEを提案する。
論文 参考訳(メタデータ) (2025-03-29T14:26:06Z) - From Stars to Molecules: AI Guided Device-Agnostic Super-Resolution Imaging [0.0]
超高解像度イメージングは、分子構造から遠い銀河までの研究に革命をもたらした。
既存の超解像法では、各撮像装置のキャリブレーションと再訓練が必要であり、実際の展開を制限している。
本稿では,光学系パラメータの校正データや明示的な知識を不要とする,点状エミッタの超高分解能イメージングのためのデバイス非依存のディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-25T20:54:27Z) - MobileMEF: Fast and Efficient Method for Multi-Exposure Fusion [0.6261722394141346]
本稿では,エンコーダ・デコーダ深層学習アーキテクチャに基づくマルチ露光融合手法を提案する。
我々のモデルは、中距離スマートフォンで2秒未満で4K解像度画像を処理できる。
論文 参考訳(メタデータ) (2024-08-15T05:03:14Z) - The Differentiable Lens: Compound Lens Search over Glass Surfaces and
Materials for Object Detection [42.00621716076439]
ほとんどのカメラレンズシステムは、下流のコンピュータ手法とは独立して設計されている。
本稿では,レンズ設計の課題に対処する最適化手法を提案する。
具体的には,ガラス材料のエンド・ツー・エンドコンテキストでの最適化を容易にするために,定量化ガラス変数を導入する。
論文 参考訳(メタデータ) (2022-12-08T18:01:17Z) - MicroISP: Processing 32MP Photos on Mobile Devices with Deep Learning [114.66037224769005]
エッジデバイスに特化して設計された新しいMicroISPモデルを提案する。
提案したソリューションは,モバイルMLライブラリを使用して,最新のスマートフォン上で最大32MPの写真を処理できる。
モデルのアーキテクチャは柔軟で、計算能力の異なるデバイスに複雑性を調整することができる。
論文 参考訳(メタデータ) (2022-11-08T17:40:50Z) - Perceptual Image Enhancement for Smartphone Real-Time Applications [60.45737626529091]
本稿では,知覚的画像強調のための軽量ネットワークLPIENetを提案する。
我々のモデルは、ノイズアーティファクト、回折アーティファクト、ぼかし、HDR過剰露光を扱うことができる。
我々のモデルは、中級商用スマートフォンで1秒未満で2K解像度画像を処理することができる。
論文 参考訳(メタデータ) (2022-10-24T19:16:33Z) - Towards Efficient and Scale-Robust Ultra-High-Definition Image
Demoireing [71.62289021118983]
本研究では、4Kモアレ画像に対処する効率的なベースラインモデルESDNetを提案する。
我々の手法は、より軽量でありながら、最先端の手法よりも大きなマージンで優れています。
論文 参考訳(メタデータ) (2022-07-20T14:20:52Z) - Generalizable Neural Performer: Learning Robust Radiance Fields for
Human Novel View Synthesis [52.720314035084215]
この研究は、一般のディープラーニングフレームワークを使用して、任意の人間の演奏者の自由視点画像を合成することを目的としている。
我々は、汎用的で堅牢な神経体表現を学習するシンプルな、かつ強力なフレームワーク、Generalizable Neural Performer(GNR)を提案する。
GeneBody-1.0とZJU-Mocapの実験は、最近の最先端の一般化可能な手法よりも、我々の手法の堅牢性を示している。
論文 参考訳(メタデータ) (2022-04-25T17:14:22Z) - Real-Time Quantized Image Super-Resolution on Mobile NPUs, Mobile AI
2021 Challenge: Report [67.86837649834636]
我々は,エンド・ツー・エンドのディープラーニングベースの画像超解像ソリューションを開発することを目的とした,最初のモバイルaiチャレンジを紹介する。
提案されたソリューションは、すべての主要なモバイルAIアクセラレータと完全に互換性があり、40-60ms以下のフルHDイメージを再構築することができる。
論文 参考訳(メタデータ) (2021-05-17T13:34:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。