論文の概要: Label-efficient Single Photon Images Classification via Active Learning
- arxiv url: http://arxiv.org/abs/2505.04376v1
- Date: Wed, 07 May 2025 12:57:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-08 19:07:36.075013
- Title: Label-efficient Single Photon Images Classification via Active Learning
- Title(参考訳): 能動学習によるラベル効率のよい単一光子画像分類
- Authors: Zili Zhang, Ziting Wen, Yiheng Qiang, Hongzhou Dong, Wenle Dong, Xinyang Li, Xiaofan Wang, Xiaoqiang Ren,
- Abstract要約: 単一光子LiDARは量子レベルの光子検出技術により、極端な環境で高精度な3Dイメージングを実現する。
現在の研究では、スパース光子現象からの3Dシーンの再構築に焦点が当てられているが、単一光子画像の意味的解釈は未解明のままである。
本稿では,単一光子画像分類のための最初のアクティブラーニングフレームワークを提案する。
- 参考スコア(独自算出の注目度): 3.213673540843068
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Single-photon LiDAR achieves high-precision 3D imaging in extreme environments through quantum-level photon detection technology. Current research primarily focuses on reconstructing 3D scenes from sparse photon events, whereas the semantic interpretation of single-photon images remains underexplored, due to high annotation costs and inefficient labeling strategies. This paper presents the first active learning framework for single-photon image classification. The core contribution is an imaging condition-aware sampling strategy that integrates synthetic augmentation to model variability across imaging conditions. By identifying samples where the model is both uncertain and sensitive to these conditions, the proposed method selectively annotates only the most informative examples. Experiments on both synthetic and real-world datasets show that our approach outperforms all baselines and achieves high classification accuracy with significantly fewer labeled samples. Specifically, our approach achieves 97% accuracy on synthetic single-photon data using only 1.5% labeled samples. On real-world data, we maintain 90.63% accuracy with just 8% labeled samples, which is 4.51% higher than the best-performing baseline. This illustrates that active learning enables the same level of classification performance on single-photon images as on classical images, opening doors to large-scale integration of single-photon data in real-world applications.
- Abstract(参考訳): 単一光子LiDARは量子レベルの光子検出技術により、極端な環境で高精度な3Dイメージングを実現する。
現在の研究は、主に疎光子現象から3Dシーンを再構築することに焦点を当てているが、高アノテーションコストと非効率なラベリング戦略のため、単光子画像の意味的解釈は未解明のままである。
本稿では,単一光子画像分類のための最初のアクティブラーニングフレームワークを提案する。
コアコントリビューションは、合成拡張を統合し、撮像条件間の変動をモデル化する撮像条件対応サンプリング戦略である。
モデルが不確かで,これらの条件に敏感なサンプルを同定することにより,最も有益な例のみを選択的にアノテートする。
合成データセットと実世界のデータセットの両方の実験により、我々のアプローチはすべてのベースラインを上回り、ラベル付きサンプルを著しく少なくして高い分類精度を達成することが示された。
具体的には,1.5%のラベル付きサンプルを用いて合成単光子データに対して97%の精度を達成した。
実世界のデータでは、わずか8%のラベル付きサンプルで90.63%の精度を維持しており、これは最高のパフォーマンスのベースラインよりも4.51%高い。
このことは、アクティブラーニングが単一光子画像の分類性能を古典的画像と同等にし、実際のアプリケーションにおける単一光子データの大規模統合への扉を開くことを示している。
関連論文リスト
- FairDiff: Fair Segmentation with Point-Image Diffusion [15.490776421216689]
本研究は,合成画像を統合することで,データ駆動型戦略強化データバランスを採用する。
3つのネットワークを経験的リスクと公平性の目標に向けて最適化する,共同最適化方式で問題を定式化する。
本モデルは,最先端のフェアネス学習モデルと比較して,優れたフェアネスセグメンテーション性能を実現する。
論文 参考訳(メタデータ) (2024-07-08T17:59:58Z) - Learning from Synthetic Data for Visual Grounding [55.21937116752679]
そこで本研究では,SynGroundが市販のビジョン・アンド・ランゲージモデルのローカライズ能力を向上できることを示す。
SynGroundで生成されたデータは、事前訓練されたALBEFモデルとBLIPモデルのポインティングゲーム精度をそれぞれ4.81%、絶対パーセンテージポイント17.11%向上させる。
論文 参考訳(メタデータ) (2024-03-20T17:59:43Z) - Enhancing Instance-Level Image Classification with Set-Level Labels [12.778150812879034]
設定レベルラベルを活用することで、インスタンスレベルの画像分類を強化する新しい手法を提案する。
自然画像データセットと病理画像データセットの2つのカテゴリについて実験を行った。
本アルゴリズムは,病理画像分類ベンチマークにおいて最強の基準値と比較して,分類精度が13%向上した。
論文 参考訳(メタデータ) (2023-11-09T03:17:03Z) - Diffusion-based Data Augmentation for Nuclei Image Segmentation [68.28350341833526]
核セグメンテーションのための拡散法を初めて導入する。
このアイデアは、多数のラベル付き画像を合成し、セグメンテーションモデルを訓練することを目的としている。
実験の結果,10%のラベル付き実データセットを合成サンプルで拡張することにより,同等のセグメンテーション結果が得られることがわかった。
論文 参考訳(メタデータ) (2023-10-22T06:16:16Z) - ExposureDiffusion: Learning to Expose for Low-light Image Enhancement [87.08496758469835]
この研究は、拡散モデルと物理ベースの露光モデルとをシームレスに統合することで、この問題に対処する。
提案手法は,バニラ拡散モデルと比較して性能が大幅に向上し,推論時間を短縮する。
提案するフレームワークは、実際のペア付きデータセット、SOTAノイズモデル、および異なるバックボーンネットワークの両方で動作する。
論文 参考訳(メタデータ) (2023-07-15T04:48:35Z) - Cap2Aug: Caption guided Image to Image data Augmentation [41.53127698828463]
Cap2Augは、画像キャプションをテキストプロンプトとして使用する画像から画像への拡散モデルに基づくデータ拡張戦略である。
限られた訓練画像からキャプションを生成し,これらのキャプションを用いて画像間安定拡散モデルを用いてトレーニング画像を編集する。
この戦略は、トレーニング画像に似た画像の拡張バージョンを生成するが、サンプル全体にわたって意味的な多様性を提供する。
論文 参考訳(メタデータ) (2022-12-11T04:37:43Z) - Imposing Consistency for Optical Flow Estimation [73.53204596544472]
プロキシタスクによる一貫性の導入は、データ駆動学習を強化することが示されている。
本稿では,光フロー推定のための新しい,効果的な整合性戦略を提案する。
論文 参考訳(メタデータ) (2022-04-14T22:58:30Z) - Robust photon-efficient imaging using a pixel-wise residual shrinkage
network [7.557893223548758]
単光子光検出・測光(LiDAR)は、挑戦的なシナリオで3Dイメージングに広く応用されている。
収集されたデータの信号光子数と高雑音は 深度画像の正確な予測に 大きな課題をもたらしました
高雑音データからの光子効率イメージングのための画素ワイド残差縮小ネットワークを提案する。
論文 参考訳(メタデータ) (2022-01-05T05:08:12Z) - To be Critical: Self-Calibrated Weakly Supervised Learning for Salient
Object Detection [95.21700830273221]
弱教師付き有色物体検出(WSOD)は,画像レベルのアノテーションを用いた有色度モデルの開発を目的としている。
擬似ラベルとネットワーク予測の相互校正ループを明確に設定し,自己校正学習戦略を提案する。
十分に整合したアノテーションを持つはるかに小さなデータセットであっても、モデルがより優れたパフォーマンスと一般化性を達成するのに役立ちます。
論文 参考訳(メタデータ) (2021-09-04T02:45:22Z) - Active Ensemble Deep Learning for Polarimetric Synthetic Aperture Radar
Image Classification [10.80252725670625]
本稿では,アクティブ・ラーニングの利点を生かし,PolSAR画像分類のためのアクティブ・アンサンブル・ディープ・ラーニング(AEDL)を提案する。
収束付近のディープラーニングモデルのスナップショットの予測されたラベルの35%は、まったく同じであった。
スナップショット委員会を用いてラベルなしデータの情報提供を行い、提案されたAEDLは、標準的なアクティブな学習戦略と比較して、2つの実際のPolSAR画像上でより優れたパフォーマンスを実現した。
論文 参考訳(メタデータ) (2020-06-29T01:40:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。