論文の概要: Kaleidoscopic Scintillation Event Imaging
- arxiv url: http://arxiv.org/abs/2512.03216v1
- Date: Tue, 02 Dec 2025 20:39:24 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-04 12:10:19.295484
- Title: Kaleidoscopic Scintillation Event Imaging
- Title(参考訳): Kaleidoscopic Scintillation Event Imaging
- Authors: Alex Bocchieri, John Mamish, David Appleyard, Andreas Velten,
- Abstract要約: 本稿では,カレイドスコープシンチレータにおける事象の画像化理論と,その事象の3次元位置を推定するアルゴリズムを提案する。
その結果、カレイドスコープシンチレータの設計は、高分解能事象測定を行うのに十分な光収集を提供することがわかった。
- 参考スコア(独自算出の注目度): 3.066886427625858
- License:
- Abstract: Scintillators are transparent materials that interact with high-energy particles and emit visible light as a result. They are used in state of the art methods of measuring high-energy particles and radiation sources. Most existing methods use fast single-pixel detectors to detect and time scintillation events. Cameras provide spatial resolution but can only capture an average over many events, making it difficult to image the events associated with an individual particle. Emerging single-photon avalanche diode cameras combine speed and spatial resolution to enable capturing images of individual events. This allows us to use machine vision techniques to analyze events, enabling new types of detectors. The main challenge is the very low brightness of the events. Techniques have to work with a very limited number of photons. We propose a kaleidoscopic scintillator to increase light collection in a single-photon camera while preserving the event's spatial information. The kaleidoscopic geometry creates mirror reflections of the event in known locations for a given event location that are captured by the camera. We introduce theory for imaging an event in a kaleidoscopic scintillator and an algorithm to estimate the event's 3D position. We find that the kaleidoscopic scintillator design provides sufficient light collection to perform high-resolution event measurements for advanced radiation imaging techniques using a commercial CMOS single-photon camera. Code and data are available at https://github.com/bocchs/kaleidoscopic_scintillator.
- Abstract(参考訳): シンチレータは、高エネルギー粒子と相互作用し、結果として可視光を発する透明な材料である。
これらは、高エネルギー粒子や放射源を測定する最先端の手法で使用されている。
既存のほとんどの方法では、高速な単画素検出器を使用してシンチレーションイベントを検出し、時間を計測する。
カメラは空間分解能を提供するが、多くの出来事を平均的にとらえることしかできず、個々の粒子に関連する事象を撮像することは困難である。
単一光子アバランシェダイオードカメラは、速度と空間分解能を組み合わせて、個々の事象の画像をキャプチャできる。
これにより、マシンビジョン技術を使ってイベントを解析し、新しいタイプの検出器を可能にする。
主な課題は、イベントの非常に低い明るさである。
技術は、非常に限られた数の光子を扱う必要がある。
イベントの空間情報を保存しながら、単一光子カメラの集光量を増加させるためのカレイドスコープシンチレータを提案する。
カレイドスコープ幾何学は、カメラが捉えた特定のイベント位置の既知の場所におけるイベントのミラー反射を生成する。
本稿では,カレイドスコープシンチレータにおける事象の画像化理論と,その事象の3次元位置を推定するアルゴリズムを提案する。
その結果,カレイドスコープシンチレータの設計は,商用CMOS単光子カメラを用いた高度な放射線イメージング技術のための高分解能事象測定を行うのに十分な光収集を提供することがわかった。
コードとデータはhttps://github.com/bocchs/kaleidoscopic_scintillatorで公開されている。
関連論文リスト
- EF-3DGS: Event-Aided Free-Trajectory 3D Gaussian Splatting [87.1077910795879]
生物学的ビジョンにインスパイアされたイベントカメラは、時間分解能の高い画素の強度を非同期に記録する。
本稿では,イベントカメラの利点を3DGSにシームレスに統合するイベント支援フリートラジェクトリ3DGSを提案する。
提案手法を,パブリックタンクとテンプルのベンチマークと,新たに収集した実世界のデータセットであるRealEv-DAVISで評価した。
論文 参考訳(メタデータ) (2024-10-20T13:44:24Z) - TUMTraf Event: Calibration and Fusion Resulting in a Dataset for
Roadside Event-Based and RGB Cameras [14.57694345706197]
インテリジェントトランスポーテーションシステム(ITS)のイベントベースカメラ
非常に高い時間分解能とダイナミックレンジを提供し、動きのぼやけをなくし、夜間の検知性能を向上させることができる。
しかし、イベントベースの画像は従来のRGBカメラの画像と比べて色やテクスチャが欠けている。
論文 参考訳(メタデータ) (2024-01-16T16:25:37Z) - Deformable Neural Radiance Fields using RGB and Event Cameras [65.40527279809474]
我々は,RGBとイベントカメラを用いた変形可能なニューラル放射場をモデル化する新しい手法を開発した。
提案手法は,イベントの非同期ストリームと疎RGBフレームを用いる。
現実的にレンダリングされたグラフィックと実世界のデータセットの両方で実施された実験は、提案手法の有益性を実証している。
論文 参考訳(メタデータ) (2023-09-15T14:19:36Z) - Tracking Particles Ejected From Active Asteroid Bennu With Event-Based
Vision [6.464577943887317]
OSIRIS-RExは、搭載されたナビゲーションカメラで捉えた画像を分析し、粒子の放出を検知した。
本研究は、センチメートルサイズの粒子の検出と追跡に特化したイベントベースのソリューションを提案する。
論文 参考訳(メタデータ) (2023-09-13T09:07:42Z) - EventNeRF: Neural Radiance Fields from a Single Colour Event Camera [81.19234142730326]
本稿では, 単色イベントストリームを入力として, 3次元一貫性, 密度, 新規なビュー合成法を提案する。
その中核は、カラーイベントチャンネルのオリジナルの解像度を維持しながら、イベントから完全に自己教師された方法で訓練された神経放射場である。
提案手法をいくつかの難解な合成シーンと実シーンで定性的・数値的に評価し,より密集し,より視覚的に魅力的であることを示す。
論文 参考訳(メタデータ) (2022-06-23T17:59:53Z) - A Preliminary Research on Space Situational Awareness Based on Event
Cameras [8.27218838055049]
イベントカメラは、従来のカメラとは異なる新しいタイプのセンサーである。
トリガーイベントは、画素に照射された明るさの変化である。
従来のカメラと比較して、イベントカメラは高時間分解能、低レイテンシ、高ダイナミックレンジ、低帯域幅、低消費電力の利点がある。
論文 参考訳(メタデータ) (2022-03-24T14:36:18Z) - ESL: Event-based Structured Light [62.77144631509817]
イベントカメラはバイオインスパイアされたセンサーであり、標準的なカメラよりも大きな利点がある。
本稿では,イベントカメラを用いた新しい構造化光システムを提案し,高精度かつ高速な深度センシングの課題に対処する。
論文 参考訳(メタデータ) (2021-11-30T15:47:39Z) - Deep learning with photosensor timing information as a background
rejection method for the Cherenkov Telescope Array [0.0]
Atmospheric Cherenkov Telescopes (IACTs) の画像解析における新たな深層学習手法の提案
cnnは、チェレンコフシャワー画像に含まれる全情報を使用する直接イベント分類方法を提供することができる。
論文 参考訳(メタデータ) (2021-03-10T13:54:43Z) - EventHands: Real-Time Neural 3D Hand Reconstruction from an Event Stream [80.15360180192175]
単眼ビデオからの3d手ポーズ推定は、長年の課題である。
我々は1つのイベントカメラ、すなわち明るさ変化に反応する非同期視覚センサを使用して、初めてそれに対処する。
従来,単一のrgbカメラや深度カメラでは表示されなかった特徴がある。
論文 参考訳(メタデータ) (2020-12-11T16:45:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。