論文の概要: Unsighted deconvolution ghost imaging
- arxiv url: http://arxiv.org/abs/2006.00161v2
- Date: Sat, 2 Jan 2021 17:08:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-17 22:45:42.316792
- Title: Unsighted deconvolution ghost imaging
- Title(参考訳): 非視的脱畳畳み込みゴーストイメージング
- Authors: Yuan Yuan and Hui Chen
- Abstract要約: ゴーストイメージング(英: Ghost imaging, GI)は、一連の既知の照明パターンと、全反射(または透過)強度を関連付けることによって、物体のイメージを検索する非伝統的なイメージング手法である。
ここでは、オブジェクトのインシデントパターンを知るための基本的な要件を排除し、GIがタービッドメディアを介してオブジェクトを非侵襲的に画像化できるようにする手法を実証する。
- 参考スコア(独自算出の注目度): 12.787115045260366
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Ghost imaging (GI) is an unconventional imaging method that retrieves the
image of an object by correlating a series of known illumination patterns with
the total reflected (or transmitted) intensity. We here demonstrate a scheme
which can remove the basic requirement of knowing the incident patterns on the
object, enabling GI to non-invasively image objects through turbid media. As an
experimental proof, we project a set of patterns towards an object hidden
inside turbid media that scramble the illumination, making the patterns falling
on the object completely unknown. We theoretically prove that the spatial
frequency of the object is preserved in the measurement of GI, even though the
spatial information of both the object and the illumination is lost. The image
is then reconstructed with phase retrieval algorithms.
- Abstract(参考訳): ゴーストイメージング(英: ghost imaging, gi)とは、一連の既知の照明パターンと全反射(または透過)強度を関連付けて、物体の画像を検索する非慣習的イメージング手法である。
本稿では,オブジェクトのインシデントパターンを知る基本的な要件を取り除き,タービッドメディアを介して非侵襲的にオブジェクトをイメージできる方式を示す。
実験的な証明として, タービッドメディアの内部に隠された物体に対して一連のパターンを投影し, 照明をスクランブルし, 物体に落下するパターンを完全に不明にする。
オブジェクトと照明の両方の空間情報が失われても、オブジェクトの空間周波数がGIの測定に保存されていることを理論的に証明する。
その後、画像は位相検索アルゴリズムで再構成される。
関連論文リスト
- Retrieval Robust to Object Motion Blur [54.34823913494456]
本研究では,動きのぼやけの影響を受けやすい画像のオブジェクト検索手法を提案する。
ぼやけたオブジェクト検索のための最初の大規模データセットを提示する。
提案手法は,新しいぼやけた検索データセット上で,最先端の検索手法より優れている。
論文 参考訳(メタデータ) (2024-04-27T23:22:39Z) - Spotlight Attention: Robust Object-Centric Learning With a Spatial
Locality Prior [88.9319150230121]
オブジェクト中心のビジョンは、シーン内のオブジェクトの明示的な表現を構築することを目的としています。
我々は、空間的局所性を最先端のオブジェクト中心視覚モデルに組み込む。
合成および実世界の両方のデータセットにおけるセグメンテーションオブジェクトの大幅な改善が得られた。
論文 参考訳(メタデータ) (2023-05-31T04:35:50Z) - Passive superresolution imaging of incoherent objects [63.942632088208505]
手法は、Hermite-Gaussianモードとその重ね合わせのオーバーコンプリートベースで、画像平面内のフィールドの空間モード成分を測定することで構成される。
ディープニューラルネットワークは、これらの測定からオブジェクトを再構築するために使用される。
論文 参考訳(メタデータ) (2023-04-19T15:53:09Z) - Experimental quantum imaging distillation with undetected light [0.0]
誘導コヒーレンス効果に基づくイメージングでは、光子対を用いて物体の情報を探査する光を検出することなく得る。
提案手法は,実利得信号の最大250倍の雑音レベルに対して,物体の高品質な画像を生成することができることを示す。
論文 参考訳(メタデータ) (2023-01-06T14:41:50Z) - ORCa: Glossy Objects as Radiance Field Cameras [23.75324754684283]
我々は、未知の幾何学を持つ光沢のある物体を放射場カメラに変換し、物体の視点から世界像を撮影する。
本研究では,環境放射界の復元により,被写体から周囲への深度と放射率の推定が可能となることを示す。
本手法は物体の多視点画像に基づいてエンドツーエンドに学習し, 物体形状, 拡散放射率, および5次元環境放射率場を共同で推定する。
論文 参考訳(メタデータ) (2022-12-08T19:32:08Z) - 3D Object Aided Self-Supervised Monocular Depth Estimation [5.579605877061333]
本研究では,モノクロ3次元物体検出による動的物体の動きに対処する新しい手法を提案する。
具体的には、まず画像中の3Dオブジェクトを検出し、検出されたオブジェクトのポーズと動的ピクセル間の対応性を構築する。
このようにして、各ピクセルの深さは有意義な幾何学モデルによって学習することができる。
論文 参考訳(メタデータ) (2022-12-04T08:52:33Z) - Shadows Shed Light on 3D Objects [23.14510850163136]
我々は、物体の3次元形状、ポーズ、光源の位置を推測できる微分可能な画像形成モデルを作成する。
我々のアプローチは、地上の暗黒マスクが未知の現実世界の画像に対して堅牢である。
論文 参考訳(メタデータ) (2022-06-17T19:58:11Z) - A Multi-purpose Real Haze Benchmark with Quantifiable Haze Levels and
Ground Truth [61.90504318229845]
本稿では,ハズフリー画像とその場でのハズ密度測定を併用した,最初の実画像ベンチマークデータセットを提案する。
このデータセットはコントロールされた環境で生成され、プロの煙発生装置がシーン全体を覆っている。
このデータセットのサブセットは、CVPR UG2 2022 チャレンジの Haze Track における Object Detection に使用されている。
論文 参考訳(メタデータ) (2022-06-13T19:14:06Z) - DeFMO: Deblurring and Shape Recovery of Fast Moving Objects [139.67524021201103]
生成モデルは、ぼやけたオブジェクトのイメージを潜在空間表現に埋め込み、背景を歪め、シャープな外観を描画する。
DeFMOは芸術の状態を上回り、高品質の時間超解像フレームを生成する。
論文 参考訳(メタデータ) (2020-12-01T16:02:04Z) - Single View Metrology in the Wild [94.7005246862618]
本研究では,物体の3次元の高さや地上のカメラの高さで表現されるシーンの絶対的なスケールを再現する,単一ビューメロジに対する新しいアプローチを提案する。
本手法は,被写体の高さなどの3Dエンティティによる未知のカメラとの相互作用から,弱い教師付き制約を抑えるために設計されたディープネットワークによって学習されたデータ駆動の先行情報に依存する。
いくつかのデータセットと仮想オブジェクト挿入を含むアプリケーションに対して、最先端の定性的かつ定量的な結果を示す。
論文 参考訳(メタデータ) (2020-07-18T22:31:33Z) - Object-Centric Image Generation with Factored Depths, Locations, and
Appearances [30.541425619507184]
本稿では,画像の生成モデルについて,それらが示すオブジェクトの集合に対して明確な理由付けを行う。
私たちのモデルは、オブジェクトを互いに、そして背景から分離する構造化潜在表現を学びます。
オブジェクトマスクや深度情報を必要とせずに、純粋に教師なしの方法で画像からトレーニングすることができる。
論文 参考訳(メタデータ) (2020-04-01T18:00:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。