論文の概要: LLVIP: A Visible-infrared Paired Dataset for Low-light Vision
- arxiv url: http://arxiv.org/abs/2108.10831v4
- Date: Wed, 14 Jun 2023 12:14:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-17 04:43:14.357381
- Title: LLVIP: A Visible-infrared Paired Dataset for Low-light Vision
- Title(参考訳): llvip: ローライトビジョンのための可視赤外ペアデータセット
- Authors: Xinyu Jia, Chuang Zhu, Minzhen Li, Wenqi Tang, Shengjie Liu, Wenli
Zhou
- Abstract要約: 低照度ビジョンのための可視赤外ペアデータセットであるLLVIPを提案する。
このデータセットには30976枚の画像、15488枚の画像が含まれており、そのほとんどは非常に暗い場所で撮影された。
我々は、このデータセットを他の可視赤外線データセットと比較し、人気のあるビジュアルアルゴリズムの性能を評価する。
- 参考スコア(独自算出の注目度): 4.453060631960743
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It is very challenging for various visual tasks such as image fusion,
pedestrian detection and image-to-image translation in low light conditions due
to the loss of effective target areas. In this case, infrared and visible
images can be used together to provide both rich detail information and
effective target areas. In this paper, we present LLVIP, a visible-infrared
paired dataset for low-light vision. This dataset contains 30976 images, or
15488 pairs, most of which were taken at very dark scenes, and all of the
images are strictly aligned in time and space. Pedestrians in the dataset are
labeled. We compare the dataset with other visible-infrared datasets and
evaluate the performance of some popular visual algorithms including image
fusion, pedestrian detection and image-to-image translation on the dataset. The
experimental results demonstrate the complementary effect of fusion on image
information, and find the deficiency of existing algorithms of the three visual
tasks in very low-light conditions. We believe the LLVIP dataset will
contribute to the community of computer vision by promoting image fusion,
pedestrian detection and image-to-image translation in very low-light
applications. The dataset is being released in
https://bupt-ai-cz.github.io/LLVIP. Raw data is also provided for further
research such as image registration.
- Abstract(参考訳): 画像の融合や歩行者検出、低照度での画像から画像への変換といった様々な視覚課題において、有効な対象領域の欠如は極めて困難である。
この場合、赤外線と可視画像を組み合わせて、詳細な情報と効果的なターゲット領域の両方を提供することができる。
本稿では,低照度ビジョンのための可視赤外ペアデータセットLLVIPを提案する。
このデータセットには30976枚の画像、または15488枚のペアが含まれており、そのほとんどは非常に暗いシーンで撮影され、すべての画像は時間と空間で厳密に整列している。
データセットの歩行者はラベルが付けられています。
データセットを他の可視赤外データセットと比較し,画像融合,歩行者検出,画像から画像への変換など,一般的なビジュアルアルゴリズムの性能評価を行った。
実験結果は,画像情報に対する融合の相補的効果を示し,超低照度条件下での3つの視覚課題の既存のアルゴリズムの欠如を見出した。
LLVIPデータセットは,低照度アプリケーションにおける画像融合,歩行者検出,画像から画像への変換を促進することによって,コンピュータビジョンのコミュニティに寄与すると考えている。
データセットはhttps://bupt-ai-cz.github.io/llvipでリリースされる。
生データは画像登録などのさらなる研究のためにも提供される。
関連論文リスト
- LoLI-Street: Benchmarking Low-Light Image Enhancement and Beyond [37.47964043913622]
先進都市における街路シーンの低照度画像と高露光画像が33k対のLoLI-Street(Low-Light Images of Streets)を新たに導入した。
LoLI-Streetデータセットはまた、実環境下でLLIEモデルをテストするための1,000の実際の低照度テストイメージも備えている。
論文 参考訳(メタデータ) (2024-10-13T13:11:56Z) - Enhancing Low-Light Images Using Infrared-Encoded Images [81.8710581927427]
従来の芸術は、主にピクセルワイド・ロスを用いて可視光スペクトルで捉えた低照度画像に焦点を当てていた。
我々は,赤外線カットオフフィルタを除去することにより,低照度環境下で撮影された画像の可視性を高める新しい手法を提案する。
論文 参考訳(メタデータ) (2023-07-09T08:29:19Z) - Application of image-to-image translation in improving pedestrian
detection [0.0]
本研究では、LLVIPデータセットにPix2pixGANやYOLOv7のような高度なディープラーニングモデルを使用し、低照度ビジョンのための可視赤外画像ペアを含む。
このデータセットには33672の画像が含まれており、ほとんどの画像は暗い場所で撮影され、時間と場所と密に同期している。
論文 参考訳(メタデータ) (2022-09-08T08:07:01Z) - Enhancing Low-Light Images in Real World via Cross-Image Disentanglement [58.754943762945864]
そこで本研究では,現実の汚職とミスアライメントされたトレーニング画像からなる,新しい低照度画像強調データセットを提案する。
本モデルでは,新たに提案したデータセットと,他の一般的な低照度データセットの両方に対して,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2022-01-10T03:12:52Z) - Cross-Modal Object Tracking: Modality-Aware Representations and A
Unified Benchmark [8.932487291107812]
多くの視覚系では、視覚的トラッキングはしばしばRGB画像シーケンスに基づいており、一部のターゲットは低照度環境では無効である。
追従過程におけるRGBとNIRの出現ギャップを軽減するために,モダリティを意識したターゲット表現を学習する新しいアルゴリズムを提案する。
無料の学術的利用のためにデータセットをリリースし、データセットのダウンロードリンクとコードを近くリリースします。
論文 参考訳(メタデータ) (2021-11-08T03:58:55Z) - Refer-it-in-RGBD: A Bottom-up Approach for 3D Visual Grounding in RGBD
Images [69.5662419067878]
RGBD画像における接地参照表現は新たな分野である。
本稿では,参照する物体が閉塞により部分的にスキャンされる場合が多い単視点rgbd画像における3次元視覚グランド化の新たな課題を提案する。
提案手法はまず,RGBD画像内の関連領域をローカライズするヒートマップを生成するために,下層の言語と視覚的特徴を融合させる。
次に、ヒートマップに基づく適応的特徴学習を行い、他のビジオ言語融合とオブジェクトレベルのマッチングを行い、最後に参照したオブジェクトを接地する。
論文 参考訳(メタデータ) (2021-03-14T11:18:50Z) - Scaling Up Visual and Vision-Language Representation Learning With Noisy
Text Supervision [57.031588264841]
高価なフィルタリングや後処理のステップを使わずに得られる10億以上の画像アルトテキストペアのノイズの多いデータセットを活用します。
単純なデュアルエンコーダアーキテクチャは、画像とテキストペアの視覚的および言語的表現を、対照的な損失を使って整列させることを学ぶ。
コーパスのスケールはノイズを補うことができ、そのような単純な学習方式であっても最先端の表現に繋がることを示す。
論文 参考訳(メタデータ) (2021-02-11T10:08:12Z) - The Cube++ Illumination Estimation Dataset [50.58610459038332]
本稿では,新しい照明推定データセットを提案する。
照明色が既知の4890の画像と、追加のセマンティックデータで構成されている。
データセットは、単一または2つの照度推定を実行するメソッドのトレーニングとテストに使用することができる。
論文 参考訳(メタデータ) (2020-11-19T18:50:08Z) - Real-MFF: A Large Realistic Multi-focus Image Dataset with Ground Truth [58.226535803985804]
我々はReal-MFFと呼ばれる大規模で現実的なマルチフォーカスデータセットを導入する。
データセットは、710対のソースイメージと対応する接地真理画像を含む。
このデータセット上で10の典型的なマルチフォーカスアルゴリズムを図示のために評価する。
論文 参考訳(メタデータ) (2020-03-28T12:33:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。