論文の概要: 3D Multimodal Image Registration for Plant Phenotyping
- arxiv url: http://arxiv.org/abs/2407.02946v1
- Date: Wed, 3 Jul 2024 09:29:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-04 14:55:24.563196
- Title: 3D Multimodal Image Registration for Plant Phenotyping
- Title(参考訳): 植物表現のための3次元マルチモーダル画像レジストレーション
- Authors: Eric Stumpe, Gernot Bodner, Francesco Flagiello, Matthias Zeppelzauer,
- Abstract要約: 植物フェノタイピングのための複合マルチモーダルモニタリングシステムにおける複数のカメラ技術の利用は、有望な利益をもたらす。
クロスモーダルパターンの有効利用は、ピクセル・正確なアライメントを実現するために、正確な画像登録に依存する。
本稿では,飛行時間カメラからの深度情報を登録プロセスに統合することにより,これらの課題に対処する新しいマルチモーダル3D画像登録手法を提案する。
- 参考スコア(独自算出の注目度): 0.6697966247860049
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The use of multiple camera technologies in a combined multimodal monitoring system for plant phenotyping offers promising benefits. Compared to configurations that only utilize a single camera technology, cross-modal patterns can be recorded that allow a more comprehensive assessment of plant phenotypes. However, the effective utilization of cross-modal patterns is dependent on precise image registration to achieve pixel-accurate alignment, a challenge often complicated by parallax and occlusion effects inherent in plant canopy imaging. In this study, we propose a novel multimodal 3D image registration method that addresses these challenges by integrating depth information from a time-of-flight camera into the registration process. By leveraging depth data, our method mitigates parallax effects and thus facilitates more accurate pixel alignment across camera modalities. Additionally, we introduce an automated mechanism to identify and differentiate different types of occlusions, thereby minimizing the introduction of registration errors. To evaluate the efficacy of our approach, we conduct experiments on a diverse image dataset comprising six distinct plant species with varying leaf geometries. Our results demonstrate the robustness of the proposed registration algorithm, showcasing its ability to achieve accurate alignment across different plant types and camera compositions. Compared to previous methods it is not reliant on detecting plant specific image features and can thereby be utilized for a wide variety of applications in plant sciences. The registration approach principally scales to arbitrary numbers of cameras with different resolutions and wavelengths. Overall, our study contributes to advancing the field of plant phenotyping by offering a robust and reliable solution for multimodal image registration.
- Abstract(参考訳): 植物フェノタイピングのための複合マルチモーダルモニタリングシステムにおける複数のカメラ技術の利用は、有望な利益をもたらす。
単一のカメラ技術のみを利用する構成と比較して、植物表現型をより包括的に評価できるクロスモーダルパターンを記録できる。
しかし、クロスモーダルパターンの有効利用は、正確な画像登録に依存してピクセル・正確なアライメントを実現している。
本研究では、飛行時間カメラからの深度情報を登録プロセスに統合することにより、これらの課題に対処する新しいマルチモーダル3D画像登録手法を提案する。
奥行きデータを活用することにより、パララックス効果を緩和し、カメラモード間のより正確な画素アライメントを容易にする。
さらに,異なる種類のオクルージョンを識別・識別する自動メカニズムを導入し,登録エラーの最小化を図る。
本手法の有効性を評価するため,異なる葉の地形を持つ6種の異なる植物種からなる多様な画像データセットを用いて実験を行った。
本研究は, 植物の種類やカメラ組成の正確なアライメントを実現するために, 提案した登録アルゴリズムの堅牢性を示すものである。
従来の方法と比較して、植物特有の画像の特徴の検出には依存せず、植物科学の幅広い応用に利用することができる。
登録方式は、主に解像度と波長の異なる任意の数のカメラにスケールする。
本研究は,マルチモーダル画像登録のための堅牢で信頼性の高いソリューションを提供することにより,植物表現の分野の進展に寄与する。
関連論文リスト
- Learning Robust Multi-Scale Representation for Neural Radiance Fields
from Unposed Images [65.41966114373373]
コンピュータビジョンにおけるニューラルイメージベースのレンダリング問題に対する改善された解決策を提案する。
提案手法は,テスト時に新たな視点からシーンのリアルなイメージを合成することができる。
論文 参考訳(メタデータ) (2023-11-08T08:18:23Z) - LCPR: A Multi-Scale Attention-Based LiDAR-Camera Fusion Network for
Place Recognition [11.206532393178385]
本稿では,マルチモーダル位置認識のための新しいニューラルネットワークLCPRを提案する。
位置認識性能を向上させるために,マルチビューカメラとLiDARデータを効果的に利用することができる。
論文 参考訳(メタデータ) (2023-11-06T15:39:48Z) - Breaking Modality Disparity: Harmonized Representation for Infrared and
Visible Image Registration [66.33746403815283]
シーン適応型赤外線と可視画像の登録を提案する。
我々は、異なる平面間の変形をシミュレートするためにホモグラフィーを用いる。
我々は、まず、赤外線と可視画像のデータセットが不一致であることを示す。
論文 参考訳(メタデータ) (2023-04-12T06:49:56Z) - Cross-Camera Deep Colorization [10.254243409261898]
本稿では,カラープラスモノデュアルカメラシステムからの画像の整列と融合を行う,エンドツーエンドの畳み込みニューラルネットワークを提案する。
提案手法は,約10dBPSNRゲインの大幅な改善を継続的に達成する。
論文 参考訳(メタデータ) (2022-08-26T11:02:14Z) - Single Stage Virtual Try-on via Deformable Attention Flows [51.70606454288168]
仮想試行は、ショップ内服と基準人物画像が与えられた写真リアルなフィッティング結果を生成することを目的としている。
マルチフロー推定に変形性アテンションスキームを適用した,変形性アテンションフロー(DAFlow)を新たに開発した。
提案手法は,定性的かつ定量的に最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-07-19T10:01:31Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - DeepMultiCap: Performance Capture of Multiple Characters Using Sparse
Multiview Cameras [63.186486240525554]
deep multicapは、スパースマルチビューカメラを用いたマルチパーソンパフォーマンスキャプチャのための新しい手法である。
本手法では,事前走査型テンプレートモデルを用いることなく,時間変化した表面の詳細をキャプチャできる。
論文 参考訳(メタデータ) (2021-05-01T14:32:13Z) - M2TR: Multi-modal Multi-scale Transformers for Deepfake Detection [74.19291916812921]
Deepfake技術によって生成された鍛造画像は、デジタル情報の信頼性に深刻な脅威をもたらします。
本稿では,Deepfake検出のための微妙な操作アーチファクトを異なるスケールで捉えることを目的とする。
最先端の顔スワッピングと顔の再現方法によって生成された4000のDeepFakeビデオで構成される高品質のDeepFakeデータセットSR-DFを紹介します。
論文 参考訳(メタデータ) (2021-04-20T05:43:44Z) - Translate to Adapt: RGB-D Scene Recognition across Domains [18.40373730109694]
本研究では,マルチモーダルシーン認識データセット内に,潜在的に深刻なドメインシフト問題が存在することを注目する。
本稿では,異なるカメラ領域にまたがって適応可能な自己教師付きモダリティ間翻訳法を提案する。
論文 参考訳(メタデータ) (2021-03-26T18:20:29Z) - PlenoptiCam v1.0: A light-field imaging framework [8.467466998915018]
光界カメラは狭帯域深度センシングアプリケーションにおいてリッチな3次元情報検索において重要な役割を担っている。
レンズカメラによる露光から光フィールドを構成する際の重要な障害は、4次元画像データを計算的に調整し、調整し、再配置することである。
特定の望遠カメラ専用のパイプラインを調整することで、全体的な画質を向上させるためのいくつかの試みが提案されている。
論文 参考訳(メタデータ) (2020-10-14T09:23:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。