論文の概要: Tracking and triangulating firefly flashes in field recordings
- arxiv url: http://arxiv.org/abs/2410.19932v1
- Date: Fri, 25 Oct 2024 19:07:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-29 12:22:51.875110
- Title: Tracking and triangulating firefly flashes in field recordings
- Title(参考訳): フィールド記録におけるフライフラッシュの追跡と三角測量
- Authors: Raphael Sarfati,
- Abstract要約: 私は、信頼できるフラッシュ分類のためのトレーニングデータセットとトレーニングニューラルネットワークを提供します。
このロバストトラッキングにより、立体360度ビデオから3次元のフラッシュ発生を再現する新たなキャリブレーションフリーな手法が実現される。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Identifying firefly flashes from other bright features in nature images is complicated. I provide a training dataset and trained neural networks for reliable flash classification. The training set consists of thousands of cropped images (patches) extracted by manual labeling from video recordings of fireflies in their natural habitat. The trained network appears as considerably more reliable to differentiate flashes from other sources of light compared to traditional methods relying solely on intensity thresholding. This robust tracking enables a new calibration-free method for the 3D reconstruction of flash occurrences from stereoscopic 360-degree videos, which I also present here.
- Abstract(参考訳): 自然画像の他の明るい特徴からホタルの輝きを識別するのは複雑です。
私は、信頼できるフラッシュ分類のためのトレーニングデータセットとトレーニングニューラルネットワークを提供します。
訓練セットは、ハエの自然生息地のビデオ記録から手動でラベル付けすることで抽出された何千もの収穫された画像(パッチ)で構成されている。
トレーニングされたネットワークは、強度閾値のみに依存する従来の方法に比べて、他の光源とフラッシュを区別する信頼性がかなり高いように見える。
このロバストトラッキングにより、立体360度ビデオから3次元のフラッシュ発生を再現する新しいキャリブレーションフリーな手法が実現される。
関連論文リスト
- Flash-Splat: 3D Reflection Removal with Flash Cues and Gaussian Splats [13.27784783829039]
透過光と反射光を分離する簡単な方法を提案する。
提案手法であるFlash-Splatは,3次元の伝送シーンと反射シーンの両方を正確に再構成する。
論文 参考訳(メタデータ) (2024-10-03T17:59:59Z) - BVI-RLV: A Fully Registered Dataset and Benchmarks for Low-Light Video Enhancement [56.97766265018334]
本稿では,2つの異なる低照度条件下での様々な動きシナリオを持つ40のシーンからなる低照度映像データセットを提案する。
我々は、プログラム可能なモータードリーを用いて、通常の光で捉えた完全に登録された地上真実データを提供し、異なる光レベルにわたるピクセルワイドフレームアライメントのための画像ベースアプローチによりそれを洗練する。
実験の結果,Low-light Video enhancement (LLVE) における完全登録ビデオペアの重要性が示された。
論文 参考訳(メタデータ) (2024-07-03T22:41:49Z) - Multimodal Foundation Models for Zero-shot Animal Species Recognition in
Camera Trap Images [57.96659470133514]
モーションアクティベートカメラトラップは、世界中の野生生物を追跡・監視するための効率的なツールである。
教師付き学習技術は、そのような画像を分析するためにうまく展開されているが、そのような訓練には専門家のアノテーションが必要である。
コストのかかるラベル付きデータへの依存を減らすことは、人間の労働力を大幅に減らした大規模野生生物追跡ソリューションを開発する上で、大きな可能性を秘めている。
論文 参考訳(メタデータ) (2023-11-02T08:32:00Z) - Improving Lens Flare Removal with General Purpose Pipeline and Multiple
Light Sources Recovery [69.71080926778413]
フレアアーティファクトは、画像の視覚的品質と下流のコンピュータビジョンタスクに影響を与える。
現在の方法では、画像信号処理パイプラインにおける自動露光やトーンマッピングは考慮されていない。
本稿では、ISPを再検討し、より信頼性の高い光源回収戦略を設計することで、レンズフレア除去性能を向上させるソリューションを提案する。
論文 参考訳(メタデータ) (2023-08-31T04:58:17Z) - Robust Reflection Removal with Flash-only Cues in the Wild [88.13531903652526]
一対のフラッシュと周囲(非フラッシュ)画像から頑健な反射除去のための反射除去キューを提案する。
提案手法はPSNRにおいて5.23dB以上の反射除去手法より優れる。
我々は、フラッシュと非フラッシュのペア間の不整合に対処するために、ハンドヘルド写真へのアプローチを拡張した。
論文 参考訳(メタデータ) (2022-11-05T14:09:10Z) - Seeing Far in the Dark with Patterned Flash [5.540878289831889]
遠距離でのフラッシュイメージングのための新しいフラッシュ技術「パターンフラッシュ」を提案する。
パターンフラッシュは光電力をドットアレイに集中させる。
畳み込みニューラルネットワークを用いた画像再構成と深度推定アルゴリズムを開発した。
論文 参考訳(メタデータ) (2022-07-25T23:16:50Z) - Relightable 3D Head Portraits from a Smartphone Video [15.639140551193073]
本稿では,人間の頭部の3D像を再現するシステムを提案する。
私たちのニューラルパイプラインは、スマートフォンのカメラがフラッシュ点滅で撮影したフレームのシーケンスで動作します。
ディープレンダリングネットワークは、任意の新しい視点のために密なアルベド、ノーマル、環境照明マップを後退させるように訓練される。
論文 参考訳(メタデータ) (2020-12-17T22:49:02Z) - Deep Denoising of Flash and No-Flash Pairs for Photography in Low-Light
Environments [51.74566709730618]
低照度環境下でのフラッシュの有無にかかわらず、高速連続で撮影された画像のペアをデノイズするニューラルネットワークベースの方法を紹介します。
私たちの目標は、ノイズの多いノーフラッシュ画像の周囲照明から色と気分を維持するシーンの高品質のレンダリングを作成することです。
論文 参考訳(メタデータ) (2020-12-09T15:41:16Z) - Data-driven Meta-set Based Fine-Grained Visual Classification [61.083706396575295]
本稿では, ノイズの多いWeb画像に対して, 微粒化認識のためのデータ駆動型メタセットベースアプローチを提案する。
具体的には、少量のクリーンなメタセットでガイドされ、メタラーニング方式で選択ネットを訓練し、分布内および分布外ノイズ画像の識別を行う。
論文 参考訳(メタデータ) (2020-08-06T03:04:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。