論文の概要: Cost-efficient Active Illumination Camera For Hyper-spectral Reconstruction
- arxiv url: http://arxiv.org/abs/2406.19560v1
- Date: Thu, 27 Jun 2024 22:19:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-01 18:22:04.903540
- Title: Cost-efficient Active Illumination Camera For Hyper-spectral Reconstruction
- Title(参考訳): ハイパースペクトル再構成のためのコスト効率のよいアクティブイルミネーションカメラ
- Authors: Yuxuan Zhang, T. M. Sazzad, Yangyang Song, Spencer J. Chang, Ritesh Chowdhry, Tomas Mejia, Anna Hampton, Shelby Kucharski, Stefan Gerber, Barry Tillman, Marcio F. R. Resende, William M. Hammond, Chris H. Wilson, Alina Zare, Sanjeev J. Koppal,
- Abstract要約: コスト効率が高く、コンパクトで、使用が容易なアクティブ照明カメラを導入し、多くのアプリケーションに役立ちます。
農学研究の支援を期待して、植物根のイメージングのためのカメラをテストしました。
- 参考スコア(独自算出の注目度): 7.836492398919301
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Hyper-spectral imaging has recently gained increasing attention for use in different applications, including agricultural investigation, ground tracking, remote sensing and many other. However, the high cost, large physical size and complicated operation process stop hyperspectral cameras from being employed for various applications and research fields. In this paper, we introduce a cost-efficient, compact and easy to use active illumination camera that may benefit many applications. We developed a fully functional prototype of such camera. With the hope of helping with agricultural research, we tested our camera for plant root imaging. In addition, a U-Net model for spectral reconstruction was trained by using a reference hyperspectral camera's data as ground truth and our camera's data as input. We demonstrated our camera's ability to obtain additional information over a typical RGB camera. In addition, the ability to reconstruct hyperspectral data from multi-spectral input makes our device compatible to models and algorithms developed for hyperspectral applications with no modifications required.
- Abstract(参考訳): ハイパースペクトルイメージングは、農業調査、地上追跡、リモートセンシングなど、さまざまな用途での利用に注目が集まっている。
しかし、高コストで大容量な物理サイズと複雑な操作プロセスにより、様々な用途や研究分野にハイパースペクトルカメラが採用されなくなる。
本稿では,コスト効率が高く,コンパクトで,使用が容易な能動照明カメラについて紹介する。
我々はそのようなカメラの完全機能プロトタイプを開発した。
農学研究の支援を期待して、植物根のイメージングのためのカメラをテストしました。
さらに、スペクトル再構成のためのU-Netモデルについて、基準ハイパースペクトルカメラのデータとカメラのデータを入力としてトレーニングした。
我々は、通常のRGBカメラで追加情報を得るカメラの能力を実証した。
さらに、マルチスペクトル入力からハイパースペクトルデータを再構成する機能により、ハイパースペクトルアプリケーション用に開発されたモデルやアルゴリズムと互換性があり、変更は不要である。
関連論文リスト
- ChatCam: Empowering Camera Control through Conversational AI [67.31920821192323]
ChatCamは、ユーザーとの会話を通じてカメラの動きをナビゲートするシステムである。
そこで本研究では,テキスト条件付きカメラ軌道生成のためのGPTに基づく自己回帰モデルであるCineGPTを提案する。
また、正確なカメラ軌道配置を保証するアンカー決定器も開発した。
論文 参考訳(メタデータ) (2024-09-25T20:13:41Z) - EvPlug: Learn a Plug-and-Play Module for Event and Image Fusion [55.367269556557645]
EvPlugは、既存のRGBベースのモデルの監視から、プラグアンドプレイイベントとイメージ融合モジュールを学習する。
オブジェクト検出,セマンティックセグメンテーション,3Dハンドポーズ推定などの視覚タスクにおいて,EvPlugの優位性を示す。
論文 参考訳(メタデータ) (2023-12-28T10:05:13Z) - EventAid: Benchmarking Event-aided Image/Video Enhancement Algorithms
with Real-captured Hybrid Dataset [55.12137324648253]
イベントカメラは、ダイナミックレンジとセンサーの速度で従来のフレームベースの撮像センサーよりも有利な、新興のイメージング技術である。
本稿では,5つのイベント支援画像と映像強調タスクに焦点を当てる。
論文 参考訳(メタデータ) (2023-12-13T15:42:04Z) - Deep Learning for Camera Calibration and Beyond: A Survey [100.75060862015945]
カメラキャリブレーションでは、キャプチャされたシーケンスから幾何学的特徴を推測するために、カメラパラメータを推定する。
近年の取り組みでは,手動キャリブレーションの繰り返し作業に代えて,学習ベースのソリューションが活用される可能性が示唆されている。
論文 参考訳(メタデータ) (2023-03-19T04:00:05Z) - Deep Learning for Event-based Vision: A Comprehensive Survey and Benchmarks [55.81577205593956]
イベントカメラはバイオインスパイアされたセンサーで、ピクセルごとの強度の変化を非同期に捉える。
深層学習(DL)はこの新興分野に導入され、その可能性のマイニングに活発な研究努力にインスピレーションを与えている。
論文 参考訳(メタデータ) (2023-02-17T14:19:28Z) - Dynamic Depth-Supervised NeRF for Multi-View RGB-D Operating Room Images [1.6451639748812472]
手術室内の任意のカメラ位置から合成ビューを描画するためにNeRFが使用できることを示す。
RGB-Dセンサデータからの奥行き監視による正規化により画像品質が向上することを示す。
以上の結果から,ORにおける視線合成のための動的NeRFの可能性と,臨床現場における深度管理の関連性を強調した。
論文 参考訳(メタデータ) (2022-11-22T17:45:06Z) - Extrinsic Camera Calibration with Semantic Segmentation [60.330549990863624]
本稿では,セグメンテーション情報を利用してパラメータ推定を自動化する,外部カメラキャリブレーション手法を提案する。
われわれのアプローチは、カメラのポーズの粗い初期測定と、車両に搭載されたライダーセンサーによる構築に依存している。
シミュレーションおよび実世界のデータを用いて,キャリブレーション結果の低誤差測定を行う。
論文 参考訳(メタデータ) (2022-08-08T07:25:03Z) - Simulation of Plenoptic Cameras [1.4337588659482516]
フレキシブルで使いやすいBlenderモデルについて述べる。
その結果,レンダリングの結果は実写カメラと同じ画像劣化効果を示すことがわかった。
論文 参考訳(メタデータ) (2022-03-09T11:58:31Z) - Monitoring and Adapting the Physical State of a Camera for Autonomous
Vehicles [10.490646039938252]
本稿では,データおよび物理モデルに基づくカメラの汎用的・タスク指向型自己維持フレームワークを提案する。
このフレームワークを現実世界の地上車両に実装し、カメラが粗悪な状況に対応するためにパラメータを調整できることを実証する。
われわれのフレームワークは、カメラの健康状態を監視し維持するための実用的なソリューションを提供するだけでなく、より高度な問題に対処するための拡張の基盤としても機能する。
論文 参考訳(メタデータ) (2021-12-10T11:14:44Z) - PlenoptiCam v1.0: A light-field imaging framework [8.467466998915018]
光界カメラは狭帯域深度センシングアプリケーションにおいてリッチな3次元情報検索において重要な役割を担っている。
レンズカメラによる露光から光フィールドを構成する際の重要な障害は、4次元画像データを計算的に調整し、調整し、再配置することである。
特定の望遠カメラ専用のパイプラインを調整することで、全体的な画質を向上させるためのいくつかの試みが提案されている。
論文 参考訳(メタデータ) (2020-10-14T09:23:18Z) - A Single RGB Camera Based Gait Analysis with a Mobile Tele-Robot for
Healthcare [9.992387025633805]
この研究は、関節矯正や下肢や脊椎の問題評価に広く採用されている歩行の分析に焦点を当てている。
ハードウェア側では,移動ロボットに搭載された低コストのRGBカメラを用いたマーカーレス歩行解析装置を設計する。
論文 参考訳(メタデータ) (2020-02-11T21:42:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。