論文の概要: Classification of optics-free images with deep neural networks
- arxiv url: http://arxiv.org/abs/2011.05132v1
- Date: Tue, 10 Nov 2020 15:02:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 08:32:39.380589
- Title: Classification of optics-free images with deep neural networks
- Title(参考訳): ディープニューラルネットワークを用いた光学自由画像の分類
- Authors: Soren Nelson and Rajesh Menon
- Abstract要約: 我々はディープニューラルネットワークをトレーニングし、光学自由画像のマルチクラス検出とバイナリ分類を行う。
光のない画像からの参照は、プライバシーと電力効率を向上する可能性がある。
- 参考スコア(独自算出の注目度): 1.52292571922932
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The thinnest possible camera is achieved by removing all optics, leaving only
the image sensor. We train deep neural networks to perform multi-class
detection and binary classification (with accuracy of 92%) on optics-free
images without the need for anthropocentric image reconstructions. Inferencing
from optics-free images has the potential for enhanced privacy and power
efficiency.
- Abstract(参考訳): 最薄のカメラは、全ての光学系を取り除き、イメージセンサーだけを残すことで達成される。
深層ニューラルネットワークを訓練し,人間中心の画像再構成を必要とせず,光学系フリーな画像に対して,マルチクラス検出とバイナリ分類(精度92%)を行う。
光学自由画像からの参照は、プライバシーと電力効率を高める可能性がある。
関連論文リスト
- Computed tomography using meta-optics [2.0771751014539532]
コンピュータビジョンタスクは、画像分類、セグメンテーション、特徴抽出を行うために大量のデータを処理する必要がある。
光プリプロセッサはコンピュータビジョンタスクに必要な浮動小数点演算数を削減できる可能性がある。
本稿では,視力訓練の必要性を回避したラドン変換を実装したメタオプティカル・イメージラを提案する。
論文 参考訳(メタデータ) (2024-11-13T19:34:10Z) - Interferometric Neural Networks [0.0]
干渉計で構成されるニューラルネットワークを導入し、そこから生成ネットワークを構築する。
私たちのネットワークには古典的な層はなく、量子コンピュータやフォトニックチップで実現できます。
マルチクラス画像分類タスクでは,ネットワークは93%,83%の精度を実現している。
論文 参考訳(メタデータ) (2023-10-25T16:17:47Z) - Spatially Varying Nanophotonic Neural Networks [39.1303097259564]
電子の代わりに光子を使った演算を実行するフォトニックプロセッサは、超低レイテンシと消費電力で光ニューラルネットワークを実現することを約束する。
既存の光学ニューラルネットワークは、基礎となるネットワーク設計によって制限されており、最先端の電子ニューラルネットワークよりもはるかに低い画像認識精度を実現している。
論文 参考訳(メタデータ) (2023-08-07T08:48:46Z) - Deep learning network to correct axial and coronal eye motion in 3D OCT
retinal imaging [65.47834983591957]
深層学習に基づくニューラルネットワークを用いて,OCTの軸運動とコロナ運動のアーチファクトを1つのスキャンで補正する。
実験結果から, 提案手法は動作アーチファクトを効果的に補正し, 誤差が他の方法よりも小さいことを示す。
論文 参考訳(メタデータ) (2023-05-27T03:55:19Z) - Data-centric AI approach to improve optic nerve head segmentation and
localization in OCT en face images [2.62820687472774]
光コヒーレンストモグラフィーにおける視神経頭部検出と局所化の訓練を,網膜の顔画像で行うためのデータ中心のアプローチに従う。
本稿では,3次元広視野赤外光コヒーレンストモグラフィースキャンの2次元面投影における視神経頭部のセグメンテーションのための機械学習手法を提案する。
論文 参考訳(メタデータ) (2022-08-08T01:57:16Z) - Sharp-GAN: Sharpness Loss Regularized GAN for Histopathology Image
Synthesis [65.47507533905188]
コンディショナル・ジェネレーショナル・ジェネレーティブ・逆境ネットワークは、合成病理像を生成するために応用されている。
そこで我々は,現実的な病理像を合成するために,シャープネスロス正則化生成対向ネットワークを提案する。
論文 参考訳(メタデータ) (2021-10-27T18:54:25Z) - Aesthetics and neural network image representations [0.0]
我々は,BigGANアーキテクチャの生成ニューラルネットワークによって符号化された画像の空間を解析する。
ニューラルネットワークパラメータをフォトリアリスティックな点から遠ざかる一般的な乗法的摂動は、しばしば対応するオブジェクトの「芸術的回帰」として現れる画像を生成する。
論文 参考訳(メタデータ) (2021-09-16T16:50:22Z) - NuI-Go: Recursive Non-Local Encoder-Decoder Network for Retinal Image
Non-Uniform Illumination Removal [96.12120000492962]
網膜画像の画質は、眼の病変や不完全な画像処理のために臨床的に不満足であることが多い。
網膜画像における最も難しい品質劣化問題の1つは、一様でない照明である。
我々はNuI-Goと呼ばれる網膜画像に対する均一でない照明除去ネットワークを提案する。
論文 参考訳(メタデータ) (2020-08-07T04:31:33Z) - Neural Sparse Representation for Image Restoration [116.72107034624344]
スパース符号化に基づく画像復元モデルの堅牢性と効率に触発され,深部ネットワークにおけるニューロンの空間性について検討した。
本手法は,隠れたニューロンに対する空間的制約を構造的に強制する。
実験により、複数の画像復元タスクのためのディープニューラルネットワークではスパース表現が不可欠であることが示されている。
論文 参考訳(メタデータ) (2020-06-08T05:15:17Z) - Modeling and Enhancing Low-quality Retinal Fundus Images [167.02325845822276]
低画質の眼底画像は臨床観察における不確実性を高め、誤診のリスクを引き起こす。
本稿では,グローバルな劣化要因を抑えるために,臨床指向の基盤拡張ネットワーク(cofe-Net)を提案する。
合成画像と実画像の両方の実験により、我々のアルゴリズムは網膜の細部を失うことなく、低品質の眼底画像を効果的に補正することを示した。
論文 参考訳(メタデータ) (2020-05-12T08:01:16Z) - Compressive sensing with un-trained neural networks: Gradient descent
finds the smoothest approximation [60.80172153614544]
訓練されていない畳み込みニューラルネットワークは、画像の回復と復元に非常に成功したツールとして登場した。
トレーニングされていない畳み込みニューラルネットワークは、ほぼ最小限のランダムな測定値から、十分に構造化された信号や画像を概ね再構成可能であることを示す。
論文 参考訳(メタデータ) (2020-05-07T15:57:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。