論文の概要: A needle-based deep-neural-network camera
- arxiv url: http://arxiv.org/abs/2011.07184v1
- Date: Sat, 14 Nov 2020 01:39:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-25 14:02:37.510947
- Title: A needle-based deep-neural-network camera
- Title(参考訳): 針型深層神経ネットワークカメラ
- Authors: Ruipeng Guo, Soren Nelson, and Rajesh Menon
- Abstract要約: 実験では、物体面から反対端への光強度を伝達する光パイプを動作させる、主光学がカンヌラであるカメラを実験的に示す。
ディープニューラルネットワーク(DNN)は180の視野と0.40の角分解能を持つ色とグレースケールの画像の再構成に用いられる。
- 参考スコア(独自算出の注目度): 1.376408511310322
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We experimentally demonstrate a camera whose primary optic is a cannula
(diameter=0.22mm and length=12.5mm) that acts a lightpipe transporting light
intensity from an object plane (35cm away) to its opposite end. Deep neural
networks (DNNs) are used to reconstruct color and grayscale images with field
of view of 180 and angular resolution of ~0.40. When trained on images with
depth information, the DNN can create depth maps. Finally, we show DNN-based
classification of the EMNIST dataset without and with image reconstructions.
The former could be useful for imaging with enhanced privacy.
- Abstract(参考訳): 物体面(35cm離れた)から対端まで光強度を輸送する光管として作用するカンヌラ(直径=0.22mm、長さ=1.2.5mm)を主視するカメラを実験的に実証する。
ディープニューラルネットワーク(DNN)は180の視野と約0.40の角分解能で色とグレースケールの画像の再構成に用いられる。
深度情報のある画像でトレーニングを行うと、DNNは深度マップを作成することができる。
最後に,画像再構成を伴わないEMNISTデータセットのDNNに基づく分類を示す。
前者はプライバシーを強化した画像撮影に有用かもしれない。
関連論文リスト
- Depth Map Denoising Network and Lightweight Fusion Network for Enhanced
3D Face Recognition [61.27785140017464]
本稿では,ノイズを低減するために,DIIF(Denoising Implicit Image Function)に基づくDMDNet(Depth Map Denoising Network)を提案する。
さらに,光深度と標準核融合ネットワーク(LDNFNet)と呼ばれる強力な認識ネットワークを設計し,異なるモード間の特徴と相補的特徴を学習する。
論文 参考訳(メタデータ) (2024-01-01T10:46:42Z) - Deep Neural Networks are Surprisingly Reversible: A Baseline for
Zero-Shot Inversion [90.65667807498086]
本稿では、内部表現のみを与えられたトレーニングモデルへの入力を復元するゼロショット直接モデル逆変換フレームワークを提案する。
ImageNetの最新の分類モデルでは、20層以上の表現から元の224x224px画像を近似的に復元できることを実証的に示す。
論文 参考訳(メタデータ) (2021-07-13T18:01:43Z) - Non-line-of-Sight Imaging via Neural Transient Fields [52.91826472034646]
NLOS(non-Line-of-Sight)イメージングのためのニューラルモデリングフレームワークを提案する。
最近のNeRF(Neural Radiance Field)アプローチにインスパイアされた我々は、ニューラルネットワーク(NeTF)を表現するために多層パーセプトロン(MLP)を使用する。
共焦点と非共焦点の両方に適用可能な球状ボリュームnetf再構成パイプラインを定式化する。
論文 参考訳(メタデータ) (2021-01-02T05:20:54Z) - Neural Ray Surfaces for Self-Supervised Learning of Depth and Ego-motion [51.19260542887099]
カメラモデルの事前知識を必要とせずに、自己超越を用いて正確な深度とエゴモーション推定を学習できることが示される。
Grossberg と Nayar の幾何学モデルにインスパイアされた我々は、ピクセルワイド射影線を表す畳み込みネットワークである Neural Ray Surfaces (NRS) を導入する。
本研究では,多種多様なカメラシステムを用いて得られた生ビデオから,視覚計測の自己教師付き学習と深度推定にNRSを用いることを実証する。
論文 参考訳(メタデータ) (2020-08-15T02:29:13Z) - ODE-CNN: Omnidirectional Depth Extension Networks [43.40308168978984]
本研究では,全方位カメラとキャリブレーションされた投影深度カメラを組み合わせた低コスト3Dセンシングシステムを提案する。
欠損した深度を正確に回復するために,一方向の深度拡張畳み込みニューラルネットワークを設計する。
ODE-CNNは、他の最先端(SoTA)手法よりもかなり優れている(相対的に33%の深度誤差の低減)。
論文 参考訳(メタデータ) (2020-07-03T03:14:09Z) - 4D Spatio-Temporal Convolutional Networks for Object Position Estimation
in OCT Volumes [69.62333053044712]
3次元畳み込みニューラルネットワーク(CNN)は、単一のOCT画像を用いたマーカーオブジェクトのポーズ推定に有望な性能を示した。
我々は3次元CNNを4次元時間CNNに拡張し、マーカーオブジェクト追跡のための追加の時間情報の影響を評価する。
論文 参考訳(メタデータ) (2020-07-02T12:02:20Z) - Needle tip force estimation by deep learning from raw spectral OCT data [0.0]
針の配置は、生検やブラキセラピーのような応用には難しい問題である。
光ファイバーセンサーは針先に直接組み込むことができる。
光コヒーレンストモグラフィーの校正法について検討した。
論文 参考訳(メタデータ) (2020-06-30T10:49:54Z) - Learning to Reconstruct Confocal Microscopy Stacks from Single Light
Field Images [19.24428734909019]
我々は,U-Netの設計に触発された新しいニューラルネットワークアーキテクチャであるLFMNetを紹介する。
解像度は112x112x57.6$mu m3$を50ミリ秒で再現できる。
スキャン時間と記憶空間の大幅な減少のため,我々の装置と方法はリアルタイム3D顕微鏡に直接適用できる。
論文 参考訳(メタデータ) (2020-03-24T17:46:03Z) - Depth Completion Using a View-constrained Deep Prior [73.21559000917554]
近年の研究では、畳み込みニューラルネットワーク(CNN)の構造が、自然画像に有利な強い先行性をもたらすことが示されている。
この前者はディープ・イメージ・先行 (DIP) と呼ばれ、画像の装飾や塗装といった逆問題において有効な正則化器である。
我々は、DIPの概念を深度画像に拡張し、色画像とノイズと不完全な目標深度マップから、CNNネットワーク構造を先行して復元された深度マップを再構成する。
論文 参考訳(メタデータ) (2020-01-21T21:56:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。