論文の概要: EvidenceMoE: A Physics-Guided Mixture-of-Experts with Evidential Critics for Advancing Fluorescence Light Detection and Ranging in Scattering Media
- arxiv url: http://arxiv.org/abs/2505.21532v1
- Date: Fri, 23 May 2025 16:38:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.132015
- Title: EvidenceMoE: A Physics-Guided Mixture-of-Experts with Evidential Critics for Advancing Fluorescence Light Detection and Ranging in Scattering Media
- Title(参考訳): EvidenceMoE: 散乱媒質中における蛍光光検出とランキングの促進のための物理誘導型エビデンス評価
- Authors: Ismail Erbas, Ferhat Demirkiran, Karthik Swaminathan, Naigang Wang, Navid Ibtehaj Nizam, Stefan T. Radev, Kaoutar El Maghraoui, Xavier Intes, Vikas Pandey,
- Abstract要約: 蛍光LiDAR (FliDAR) は、医療、自動車、その他の分野における距離と深さを推定する技術である。
取得されたFLiDAR信号の複雑な性質は、光子の飛行時間と固有の蛍光寿命の分離を極めて困難にする。
本稿では,多種多様な時間成分のモデリングに適した物理誘導混合実験フレームワークを提案する。
- 参考スコア(独自算出の注目度): 3.9833452895674655
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fluorescence LiDAR (FLiDAR), a Light Detection and Ranging (LiDAR) technology employed for distance and depth estimation across medical, automotive, and other fields, encounters significant computational challenges in scattering media. The complex nature of the acquired FLiDAR signal, particularly in such environments, makes isolating photon time-of-flight (related to target depth) and intrinsic fluorescence lifetime exceptionally difficult, thus limiting the effectiveness of current analytical and computational methodologies. To overcome this limitation, we present a Physics-Guided Mixture-of-Experts (MoE) framework tailored for specialized modeling of diverse temporal components. In contrast to the conventional MoE approaches our expert models are informed by underlying physics, such as the radiative transport equation governing photon propagation in scattering media. Central to our approach is EvidenceMoE, which integrates Evidence-Based Dirichlet Critics (EDCs). These critic models assess the reliability of each expert's output by providing per-expert quality scores and corrective feedback. A Decider Network then leverages this information to fuse expert predictions into a robust final estimate adaptively. We validate our method using realistically simulated Fluorescence LiDAR (FLiDAR) data for non-invasive cancer cell depth detection generated from photon transport models in tissue. Our framework demonstrates strong performance, achieving a normalized root mean squared error (NRMSE) of 0.030 for depth estimation and 0.074 for fluorescence lifetime.
- Abstract(参考訳): 蛍光LiDAR(FliDAR)は、医学、自動車、その他の分野において距離と深さを推定するために使用される光検出・照準(LiDAR)技術であり、散乱媒体において重要な計算課題に直面している。
取得されたFLiDAR信号の複雑な性質、特にそのような環境では、光子の飛行時間(目標深度に関連する)と固有の蛍光寿命を極端に困難にし、現在の解析的および計算的方法論の有効性を制限する。
この制限を克服するために,多種多様な時間成分のモデリングに適した物理誘導混合(MoE)フレームワークを提案する。
従来のMoEアプローチとは対照的に、我々の専門家モデルは散乱媒質における光子伝播を規定する放射輸送方程式のような基礎物理学から情報を得ている。
Evidence-Based Dirichlet Critics (EDCs)を統合したEvidenceMoEです。
これらの批評家モデルは、専門家ごとの品質スコアと修正フィードバックを提供することで、各専門家のアウトプットの信頼性を評価する。
決定ネットワークは、この情報を利用して専門家の予測を頑健な最終見積に適応させる。
組織中の光子輸送モデルから生成された非侵襲性癌細胞深度検出のための蛍光LiDAR(FLiDAR)データを用いて本手法の有効性を検証した。
本フレームワークは, 深さ推定に0.030, 蛍光寿命に0.074の正規化根平均二乗誤差(NRMSE)を達成し, 高い性能を示す。
関連論文リスト
- Comparative analysis of Realistic EMF Exposure Estimation from Low Density Sensor Network by Finite & Infinite Neural Networks [0.6144680854063939]
本研究では,EMFの曝露レベルを推定・評価するために,有限幅および無限幅の畳み込みネットワークに基づく手法を提案する。
手法の実行時間と推定精度を比較分析して比較分析を行った。
論文 参考訳(メタデータ) (2025-04-07T12:31:53Z) - Unified, Verifiable Neural Simulators for Electromagnetic Wave Inverse Problems [1.6795461001108096]
我々は、数千のDoF、波長、照明波面、およびフリーフォームの散乱シミュレーションに対処できる単一の統一モデルを示す。
本研究は,既存の散乱シミュレータにおいて,普遍的かつ精度の高いニューラルサロゲートへの道を示すものである。
論文 参考訳(メタデータ) (2024-03-31T03:23:29Z) - Adaptive Multi-modal Fusion of Spatially Variant Kernel Refinement with Diffusion Model for Blind Image Super-Resolution [23.34647832483913]
我々は,Blind Image textbfSuper-textbfResolutionのための拡散モデルを用いた適応多モード固定法(Adaptive Multi-modal Fusion of textbfSpatially Variant Kernel Refinement with Diffusion Model)を提案する。
また,アダプティブ・マルチモーダル・フュージョン (AMF) モジュールを導入し,低解像度画像,深度マップ,ぼかしカーネルといった3つのモードからの情報を整列させる。
論文 参考訳(メタデータ) (2024-03-09T06:01:25Z) - Deep Learning reconstruction with uncertainty estimation for $\gamma$
photon interaction in fast scintillator detectors [1.0149560203037322]
本稿では,モノリシックシンチレータ内のガンマ相互作用の空間座標を定量的に推定する物理インフォームド深層学習法を提案する。
高速鉛タングステイト検出器における2次元ガンマ光子相互作用座標を推定する密度ニューラルネットワーク手法が提案されている。
論文 参考訳(メタデータ) (2023-10-10T12:31:29Z) - The Surprising Effectiveness of Diffusion Models for Optical Flow and
Monocular Depth Estimation [42.48819460873482]
拡散確率モデルは、その印象的な忠実さと多様性で画像生成を変換した。
また,タスク固有のアーキテクチャや損失関数を使わずに,光学的フローと単眼深度の推定に優れることを示す。
論文 参考訳(メタデータ) (2023-06-02T21:26:20Z) - Low-Light Image Enhancement with Wavelet-based Diffusion Models [50.632343822790006]
拡散モデルは画像復元作業において有望な結果を得たが、時間を要する、過剰な計算資源消費、不安定な復元に悩まされている。
本稿では,DiffLLと呼ばれる高能率かつ高能率な拡散型低光画像強調手法を提案する。
論文 参考訳(メタデータ) (2023-06-01T03:08:28Z) - End-To-End Latent Variational Diffusion Models for Inverse Problems in
High Energy Physics [61.44793171735013]
本稿では,最先端生成技術アプローチの潜時学習とエンドツーエンドの変分フレームワークを組み合わせた,新しい統合アーキテクチャ,潜時変分モデルを提案する。
我々の統一的アプローチは、非最新技術ベースラインの20倍以上の真理への分布自由距離を達成する。
論文 参考訳(メタデータ) (2023-05-17T17:43:10Z) - Lidar Light Scattering Augmentation (LISA): Physics-based Simulation of
Adverse Weather Conditions for 3D Object Detection [60.89616629421904]
ライダーベースの物体検出器は、自動運転車のような自律ナビゲーションシステムにおいて、3D知覚パイプラインの重要な部分である。
降雨、雪、霧などの悪天候に敏感で、信号-雑音比(SNR)と信号-背景比(SBR)が低下している。
論文 参考訳(メタデータ) (2021-07-14T21:10:47Z) - Leveraging Global Parameters for Flow-based Neural Posterior Estimation [90.21090932619695]
実験観測に基づくモデルのパラメータを推定することは、科学的方法の中心である。
特に困難な設定は、モデルが強く不確定であるとき、すなわち、パラメータの異なるセットが同一の観測をもたらすときである。
本稿では,グローバルパラメータを共有する観測の補助的セットによって伝達される付加情報を利用して,その不確定性を破る手法を提案する。
論文 参考訳(メタデータ) (2021-02-12T12:23:13Z) - Statistical control for spatio-temporal MEG/EEG source imaging with
desparsified multi-task Lasso [102.84915019938413]
脳磁図(MEG)や脳電図(EEG)のような非侵襲的手法は、非侵襲的手法を約束する。
ソースローカライゼーション(ソースイメージング)の問題は、しかしながら、高次元の統計的推測問題を引き起こす。
この問題に対処するために,分離されたマルチタスクラッソ(ecd-MTLasso)のアンサンブルを提案する。
論文 参考訳(メタデータ) (2020-09-29T21:17:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。