論文の概要: Neural Field Representations of Mobile Computational Photography
- arxiv url: http://arxiv.org/abs/2508.05907v1
- Date: Fri, 08 Aug 2025 00:03:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-11 20:39:06.034742
- Title: Neural Field Representations of Mobile Computational Photography
- Title(参考訳): 移動計算写真におけるニューラルネットワークの表現
- Authors: Ilya Chugunov,
- Abstract要約: 複雑な幾何学と照明効果をコンパクトに表現する神経磁場モデルの設計方法を示す。
収集したモバイル写真データから直接、深度推定、層分離、画像縫合などのアプリケーションを有効にする。
- 参考スコア(独自算出の注目度): 4.459996749171579
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Over the past two decades, mobile imaging has experienced a profound transformation, with cell phones rapidly eclipsing all other forms of digital photography in popularity. Today's cell phones are equipped with a diverse range of imaging technologies - laser depth ranging, multi-focal camera arrays, and split-pixel sensors - alongside non-visual sensors such as gyroscopes, accelerometers, and magnetometers. This, combined with on-board integrated chips for image and signal processing, makes the cell phone a versatile pocket-sized computational imaging platform. Parallel to this, we have seen in recent years how neural fields - small neural networks trained to map continuous spatial input coordinates to output signals - enable the reconstruction of complex scenes without explicit data representations such as pixel arrays or point clouds. In this thesis, I demonstrate how carefully designed neural field models can compactly represent complex geometry and lighting effects. Enabling applications such as depth estimation, layer separation, and image stitching directly from collected in-the-wild mobile photography data. These methods outperform state-of-the-art approaches without relying on complex pre-processing steps, labeled ground truth data, or machine learning priors. Instead, they leverage well-constructed, self-regularized models that tackle challenging inverse problems through stochastic gradient descent, fitting directly to raw measurements from a smartphone.
- Abstract(参考訳): 過去20年間、携帯電話はあらゆるデジタル写真を急速に取り除き、大きな変化を遂げてきた。
今日の携帯電話には、レーザー深度、多焦点カメラアレイ、スプリットピクセルセンサー、ジャイロスコープ、加速度計、磁気センサなどの非視覚センサーなど、さまざまな画像技術が搭載されている。
これは、画像と信号処理のためのオンボード統合チップと組み合わせて、携帯電話をポケットサイズの汎用的な計算画像プラットフォームにする。
これと並行して、近年では、連続的な空間的な入力座標を出力信号にマッピングするように訓練された小さなニューラルネットワークが、ピクセル配列や点雲のような明示的なデータ表現なしで複雑なシーンの再構築を可能にしている。
この論文では、複雑な幾何学と照明効果をいかにコンパクトに表現できるかを、ニューラルネットワークモデルがいかに慎重に設計するかを実証する。
深度推定,層分離,画像縫合などの応用は,Wild モバイル写真データから直接行う。
これらの手法は、複雑な前処理ステップ、ラベル付き基底真理データ、機械学習の事前処理に頼ることなく、最先端のアプローチより優れている。
その代わりに、確率的勾配降下による逆問題に対処する、よく構築された自己正規化モデルを活用し、スマートフォンの生測定に直接適合する。
関連論文リスト
- Learned Lightweight Smartphone ISP with Unpaired Data [55.2480439325792]
学習可能な画像信号処理装置(ISP)のための新しいトレーニング手法を提案する。
我々の未経験アプローチは、敵の訓練によって導かれる多段階の損失関数を用いる。
ペア学習法と比較すると,我々の未経験学習戦略は強い可能性を示し,高い忠実性を実現する。
論文 参考訳(メタデータ) (2025-05-15T15:37:51Z) - Hardware, Algorithms, and Applications of the Neuromorphic Vision Sensor: a Review [0.0]
ニューロモルフィック(Neuromorphic)またはイベントカメラは、検出された1ピクセル当たりの瞬時照明変化をイベントパケットの非同期ストリームに変換する視覚センシングエンコードに対する古典的なアプローチの変換を表す。
彼らの斬新さは、フル画像フレームを一定時間間隔でキャプチャするから、スパースなデータフォーマットへの移行にある。
論文 参考訳(メタデータ) (2025-04-11T14:46:36Z) - Neuromorphic Optical Tracking and Imaging of Randomly Moving Targets through Strongly Scattering Media [8.480104395572418]
我々は、通常見えない物体の追跡と画像化のための、エンドツーエンドのニューロモルフィック光学工学と計算手法を開発した。
密度散乱媒質から生じる光をイベントカメラで検出し、画素ワイドの同期スパイク列車に変換する。
本研究では,高密度な乱流媒質中におけるランダムに移動する物体の追跡とイメージング,および空間的静止だが光学的動的物体の像再構成を実演する。
論文 参考訳(メタデータ) (2025-01-07T15:38:13Z) - Learning Robust Multi-Scale Representation for Neural Radiance Fields
from Unposed Images [65.41966114373373]
コンピュータビジョンにおけるニューラルイメージベースのレンダリング問題に対する改善された解決策を提案する。
提案手法は,テスト時に新たな視点からシーンのリアルなイメージを合成することができる。
論文 参考訳(メタデータ) (2023-11-08T08:18:23Z) - Low-Light Image Enhancement with Illumination-Aware Gamma Correction and
Complete Image Modelling Network [69.96295927854042]
低照度環境は通常、情報の少ない大規模な暗黒地帯に繋がる。
本稿では,ガンマ補正の有効性を深層ネットワークのモデリング能力と統合することを提案する。
指数関数演算は高い計算複雑性をもたらすので、Taylor Series を用いてガンマ補正を近似することを提案する。
論文 参考訳(メタデータ) (2023-08-16T08:46:51Z) - Searching a Compact Architecture for Robust Multi-Exposure Image Fusion [55.37210629454589]
2つの大きなスタブリングブロックは、画素の不一致や非効率な推論など、開発を妨げる。
本研究では,高機能なマルチ露光画像融合のための自己アライメントとディテールリプレクションモジュールを取り入れたアーキテクチャ検索に基づくパラダイムを提案する。
提案手法は様々な競争方式より優れており、一般的なシナリオではPSNRが3.19%向上し、不整合シナリオでは23.5%向上した。
論文 参考訳(メタデータ) (2023-05-20T17:01:52Z) - High Dynamic Range and Super-Resolution from Raw Image Bursts [52.341483902624006]
本稿では,露光ブラケット付きハンドヘルドカメラで撮影した原写真からの高解像度・高ダイナミックレンジカラー画像の再構成について紹介する。
提案アルゴリズムは,画像復元における最先端の学習手法と比較して,メモリ要求の少ない高速なアルゴリズムである。
実験では、ハンドヘルドカメラで野生で撮影された実際の写真に最大4ドル(約4,800円)の超高解像度な要素で優れた性能を示す。
論文 参考訳(メタデータ) (2022-07-29T13:31:28Z) - Sim-to-real for high-resolution optical tactile sensing: From images to
3D contact force distributions [5.939410304994348]
本稿では、内部カメラに基づく視覚ベースの触覚センサのシミュレーションにおいて触覚画像を生成する戦略を提案する。
材料の変形は、様々な接触条件の下で有限要素環境下でシミュレートされ、シミュレートされた画像に球状粒子が投影される。
画像から抽出した特徴は、3次元接触力分布にマップされ、有限要素シミュレーションによっても得られる。
論文 参考訳(メタデータ) (2020-12-21T12:43:33Z) - Mesoscopic photogrammetry with an unstabilized phone camera [8.210210271599134]
本稿では,3次元mesoscopic (mm-scale height variation)画像の定量化を可能にする特徴のないフォトグラム計算手法を提案する。
当社のエンドツーエンドのピクセル強度ベースのアプローチは、すべての画像を共同で登録し、整列高さマップを推定します。
また,他の複数フレーム登録問題に適用可能な時間とメモリの削減戦略を提案する。
論文 参考訳(メタデータ) (2020-12-11T00:09:18Z) - Deep 3D Capture: Geometry and Reflectance from Sparse Multi-View Images [59.906948203578544]
本稿では,任意の物体の高品質な形状と複雑な空間変化を持つBRDFを再構成する学習に基づく新しい手法を提案する。
まず、深層多視点ステレオネットワークを用いて、ビューごとの深度マップを推定する。
これらの深度マップは、異なるビューを粗く整列するために使用される。
本稿では,新しい多視点反射率推定ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-03-27T21:28:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。