論文の概要: PlenoptiCam v1.0: A light-field imaging framework
- arxiv url: http://arxiv.org/abs/2010.11687v5
- Date: Sun, 25 Jul 2021 17:38:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 14:24:00.190932
- Title: PlenoptiCam v1.0: A light-field imaging framework
- Title(参考訳): PlenoptiCam v1.0:光フィールドイメージングフレームワーク
- Authors: Christopher Hahne and Amar Aggoun
- Abstract要約: 光界カメラは狭帯域深度センシングアプリケーションにおいてリッチな3次元情報検索において重要な役割を担っている。
レンズカメラによる露光から光フィールドを構成する際の重要な障害は、4次元画像データを計算的に調整し、調整し、再配置することである。
特定の望遠カメラ専用のパイプラインを調整することで、全体的な画質を向上させるためのいくつかの試みが提案されている。
- 参考スコア(独自算出の注目度): 8.467466998915018
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Light-field cameras play a vital role for rich 3-D information retrieval in
narrow range depth sensing applications. The key obstacle in composing
light-fields from exposures taken by a plenoptic camera is to computationally
calibrate, align and rearrange four-dimensional image data. Several attempts
have been proposed to enhance the overall image quality by tailoring pipelines
dedicated to particular plenoptic cameras and improving the consistency across
viewpoints at the expense of high computational loads. The framework presented
herein advances prior outcomes thanks to its novel micro image scale-space
analysis for generic camera calibration independent of the lens specifications
and its parallax-invariant, cost-effective viewpoint color equalization from
optimal transport theory. Artifacts from the sensor and micro lens grid are
compensated in an innovative way to enable superior quality in sub-aperture
image extraction, computational refocusing and Scheimpflug rendering with
sub-sampling capabilities. Benchmark comparisons using established image
metrics suggest that our proposed pipeline outperforms state-of-the-art tool
chains in the majority of cases. Results from a Wasserstein distance further
show that our color transfer outdoes the existing transport methods. Our
algorithms are released under an open-source license, offer cross-platform
compatibility with few dependencies and different user interfaces. This makes
the reproduction of results and experimentation with plenoptic camera
technology convenient for peer researchers, developers, photographers, data
scientists and others working in this field.
- Abstract(参考訳): 光フィールドカメラは、狭域深度センシングアプリケーションにおいて、リッチな3次元情報検索に重要な役割を果たす。
光フィールドを構成する重要な障害は、4次元画像データを計算的に校正し、調整し、再配置することである。
特定のplenopticカメラ専用のパイプラインを調整し、高い計算負荷を犠牲にして視点間の一貫性を改善することで、全体的な画質を向上させるためのいくつかの試みが提案されている。
この枠組みは、レンズ仕様に依存しない汎用カメラキャリブレーションのための新しいマイクロ画像スケール空間解析と、最適輸送理論からのパララックス不変で費用対効果の高い視点色均等化により、先行結果を得る。
センサとマイクロレンズグリッドのアーチファクトは、サブアパーチャ画像抽出、計算リフォーカス、サブサンプリング機能を備えたSchimpflugレンダリングにおいて優れた品質を実現するために、革新的な方法で補償される。
確立されたイメージメトリクスを用いたベンチマーク比較は,提案するパイプラインが大部分のケースで最先端ツールチェーンを上回っていることを示唆している。
ワッサーシュタイン距離から得られた結果は、我々の色移動が既存の輸送方法を上回ることを示している。
当社のアルゴリズムはオープンソースライセンスでリリースされており、少数の依存関係と異なるユーザインターフェースでクロスプラットフォームの互換性を提供します。
これにより、plenopticカメラ技術による結果の再現と実験が、この分野で働くピア研究者、開発者、写真家、データサイエンティストなどにとって便利なものになる。
関連論文リスト
- Redundancy-Aware Camera Selection for Indoor Scene Neural Rendering [54.468355408388675]
カメラの空間的多様性と画像の意味的変動の両方を取り入れた類似度行列を構築した。
カメラ選択を最適化するために,多様性に基づくサンプリングアルゴリズムを適用した。
IndoorTrajという新しいデータセットも開発しています。仮想屋内環境で人間が捉えた、長くて複雑なカメラの動きが含まれています。
論文 参考訳(メタデータ) (2024-09-11T08:36:49Z) - Fine Dense Alignment of Image Bursts through Camera Pose and Depth
Estimation [45.11207941777178]
本稿では,ハンドヘルドカメラが捉えたバースト内の画像の微細なアライメントに対する新しいアプローチを提案する。
提案アルゴリズムは、各画素におけるカメラの動きと表面の深さと向きの両方を最適化することにより、密度の高い対応性を確立する。
論文 参考訳(メタデータ) (2023-12-08T17:22:04Z) - Multi-Modal Dataset Acquisition for Photometrically Challenging Object [56.30027922063559]
本稿では,3次元視覚タスクにおける現在のデータセットの限界について,精度,サイズ,リアリズム,および光度に挑戦する対象に対する適切な画像モダリティの観点から検討する。
既存の3次元認識と6次元オブジェクトポーズデータセットを強化する新しいアノテーションと取得パイプラインを提案する。
論文 参考訳(メタデータ) (2023-08-21T10:38:32Z) - Thin On-Sensor Nanophotonic Array Cameras [36.981384762023794]
本稿では,コモディティカメラの代替として,エフフラット型ナノフォトニクス計算カメラを紹介する。
光アレイは、700nmの高さで平らで、センサーから2.5mmの距離のセンサーカバーガラスの上に埋め込まれている。
提案手法では, 生成拡散モデルを用いて, 暗黙の先行画像のサンプル化を行い, 平面画像からメガピクセル画像の再構成を行う。
論文 参考訳(メタデータ) (2023-08-05T06:04:07Z) - Ultra-High-Definition Low-Light Image Enhancement: A Benchmark and
Transformer-Based Method [51.30748775681917]
低照度画像強調(LLIE)の課題を考察し,4K解像度と8K解像度の画像からなる大規模データベースを導入する。
我々は、系統的なベンチマーク研究を行い、現在のLLIEアルゴリズムと比較する。
第2のコントリビューションとして,変換器をベースとした低照度化手法であるLLFormerを紹介する。
論文 参考訳(メタデータ) (2022-12-22T09:05:07Z) - Learning rich optical embeddings for privacy-preserving lensless image
classification [17.169529483306103]
我々は、光学系をエンコーダとしてキャストするユニークな多重化特性を利用して、カメラセンサーに直接学習した埋め込みを生成する。
画像分類の文脈では、エンコーダのパラメータと画像分類器のパラメータをエンドツーエンドで共同で最適化する。
我々の実験は、レンズレス光エンコーダとデジタル処理を共同で学習することで、センサーに低解像度の埋め込みが可能であることを示し、その結果、これらの測定から有意義な画像の復元がはるかに困難であることから、プライバシーが向上することを示している。
論文 参考訳(メタデータ) (2022-06-03T07:38:09Z) - GenISP: Neural ISP for Low-Light Machine Cognition [19.444297600977546]
低照度環境では、原画像データを用いた物体検出器は、ISPパイプラインで処理された画像データを用いた検出器よりも堅牢である。
我々は、デバイスに依存しないカラー空間にカラー空間変換を明示的に組み込んだ、マシン認知のための最小限のニューラルISPパイプラインGenISPを提案する。
論文 参考訳(メタデータ) (2022-05-07T17:17:24Z) - MC-Blur: A Comprehensive Benchmark for Image Deblurring [127.6301230023318]
ほとんどの実世界の画像では、ブラーは動きやデフォーカスなど様々な要因によって引き起こされる。
我々は,MC-Blurと呼ばれる大規模マルチライク画像デブロアリングデータセットを新たに構築する。
MC-Blurデータセットに基づいて,異なるシナリオにおけるSOTA法の比較を行う。
論文 参考訳(メタデータ) (2021-12-01T02:10:42Z) - Universal and Flexible Optical Aberration Correction Using Deep-Prior
Based Deconvolution [51.274657266928315]
そこで本研究では,収差画像とpsfマップを入力とし,レンズ固有深層プリエントを組み込んだ潜在高品質版を生成する,psf対応プラグイン・アンド・プレイ深層ネットワークを提案する。
具体的には、多彩なレンズの集合からベースモデルを事前訓練し、パラメータを迅速に精製して特定のレンズに適応させる。
論文 参考訳(メタデータ) (2021-04-07T12:00:38Z) - Multi-Dimension Fusion Network for Light Field Spatial Super-Resolution
using Dynamic Filters [23.82780431526054]
光フィールドの空間分解能を改善するための新しい学習ベースフレームワークを提案する。
再構成された画像は、サブアパーチャ画像とエピポーラ平面画像の両方において、鮮明な細部と明瞭な線も示している。
論文 参考訳(メタデータ) (2020-08-26T09:05:07Z) - Multi-View Photometric Stereo: A Robust Solution and Benchmark Dataset
for Spatially Varying Isotropic Materials [65.95928593628128]
多視点光度ステレオ技術を用いて3次元形状と空間的に異なる反射率の両方をキャプチャする手法を提案する。
我々のアルゴリズムは、遠近点光源と遠近点光源に適している。
論文 参考訳(メタデータ) (2020-01-18T12:26:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。