論文の概要: Hyperspectral Image Land Cover Captioning Dataset for Vision Language Models
- arxiv url: http://arxiv.org/abs/2505.12217v1
- Date: Sun, 18 May 2025 03:32:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.099382
- Title: Hyperspectral Image Land Cover Captioning Dataset for Vision Language Models
- Title(参考訳): ビジョン言語モデルのためのハイパースペクトル画像ランドカバーキャプションデータセット
- Authors: Aryan Das, Tanishq Rachamalla, Pravendra Singh, Koushik Biswas, Vinay Kumar Verma, Swalpa Kumar Roy,
- Abstract要約: リモートセンシングアプリケーションにおけるモデル性能と有効性を高めるために設計された,最初の大規模ハイパースペクトルキャプションデータセットであるHyperCapを紹介する。
分類タスクのみに焦点を当てた従来のハイパースペクトルイメージング(HSI)データセットとは異なり、HyperCapはスペクトルデータをピクセル単位のテキストアノテーションに統合する。
このデータセットは、分類や特徴抽出といったタスクにおけるモデルパフォーマンスを高め、高度なリモートセンシングアプリケーションに貴重なリソースを提供する。
- 参考スコア(独自算出の注目度): 15.87261767109048
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce HyperCap, the first large-scale hyperspectral captioning dataset designed to enhance model performance and effectiveness in remote sensing applications. Unlike traditional hyperspectral imaging (HSI) datasets that focus solely on classification tasks, HyperCap integrates spectral data with pixel-wise textual annotations, enabling deeper semantic understanding of hyperspectral imagery. This dataset enhances model performance in tasks like classification and feature extraction, providing a valuable resource for advanced remote sensing applications. HyperCap is constructed from four benchmark datasets and annotated through a hybrid approach combining automated and manual methods to ensure accuracy and consistency. Empirical evaluations using state-of-the-art encoders and diverse fusion techniques demonstrate significant improvements in classification performance. These results underscore the potential of vision-language learning in HSI and position HyperCap as a foundational dataset for future research in the field.
- Abstract(参考訳): リモートセンシングアプリケーションにおけるモデル性能と有効性を高めるために設計された,最初の大規模ハイパースペクトルキャプションデータセットであるHyperCapを紹介する。
分類タスクのみに焦点を当てた従来のハイパースペクトルイメージング(HSI)データセットとは異なり、HyperCapはスペクトルデータをピクセル単位のテキストアノテーションと統合し、ハイパースペクトル画像のより深いセマンティック理解を可能にする。
このデータセットは、分類や特徴抽出といったタスクにおけるモデルパフォーマンスを高め、高度なリモートセンシングアプリケーションに貴重なリソースを提供する。
HyperCapは4つのベンチマークデータセットから構築され、自動メソッドと手動メソッドを組み合わせたハイブリッドアプローチによって、正確性と一貫性を保証する。
最先端エンコーダと多種多様な融合技術を用いた実証評価は、分類性能を著しく改善したことを示す。
これらの結果は、HSIにおける視覚言語学習の可能性を強調し、HyperCapを今後の研究の基盤となるデータセットとして位置づけている。
関連論文リスト
- SpecDM: Hyperspectral Dataset Synthesis with Pixel-level Semantic Annotations [27.391859339238906]
本稿では,画素レベルのアノテーションを用いたハイパースペクトル画像の合成における生成拡散モデルの可能性について検討する。
私たちの知る限りでは、アノテーションで高次元のHSIを生成するのはこれが初めてです。
我々は、セマンティックセグメンテーションと変化検出の2つの最も広く使われている密集予測タスクを選択し、これらのタスクに適したデータセットを生成する。
論文 参考訳(メタデータ) (2025-02-24T11:13:37Z) - Adaptive Masking Enhances Visual Grounding [12.793586888511978]
ローショット学習シナリオにおける語彙接地を改善するために,ガウス放射変調を用いた画像解釈型マスキングを提案する。
我々はCOCOやODinWを含むベンチマークデータセットに対するアプローチの有効性を評価し、ゼロショットタスクや少数ショットタスクにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2024-10-04T05:48:02Z) - AMBER -- Advanced SegFormer for Multi-Band Image Segmentation: an application to Hyperspectral Imaging [0.0]
本稿では,マルチバンド画像セグメンテーション用に設計された高度なSegFormerであるAMBERを紹介する。
AMBERは3次元の畳み込み、カスタムカーネルサイズ、Funnelizerレイヤを組み込むことで、オリジナルのSegFormerを強化している。
PRISMA衛星の3つのベンチマークデータセットとデータセットを用いて行った実験により、AMBERは、全体的な精度、Kappa係数、平均精度で従来のCNNベースの手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-09-14T09:34:05Z) - Hyper-YOLO: When Visual Object Detection Meets Hypergraph Computation [74.65906322148997]
本稿では,画像特徴量間の複雑な高次相関を捉えるためにハイパーグラフ計算を統合する新しいオブジェクト検出手法を提案する。
Hyper-YOLOは、高度なYOLOv8-NとYOLOv9Tを12%のtextval$と9%のAPMoonLabの改善で大幅に上回っている。
論文 参考訳(メタデータ) (2024-08-09T01:21:15Z) - HyperSIGMA: Hyperspectral Intelligence Comprehension Foundation Model [88.13261547704444]
Hyper SIGMAは、タスクやシーン間でHSI解釈を統合するビジョントランスフォーマーベースの基礎モデルである。
さらに,約450Kのハイパースペクトル画像を含む,事前学習のための大規模ハイパースペクトルデータセットHyperGlobal-450Kを構築した。
論文 参考訳(メタデータ) (2024-06-17T13:22:58Z) - Hypergraph Transformer for Semi-Supervised Classification [50.92027313775934]
我々は新しいハイパーグラフ学習フレームワークHyperGraph Transformer(HyperGT)を提案する。
HyperGTはTransformerベースのニューラルネットワークアーキテクチャを使用して、すべてのノードとハイパーエッジのグローバル相関を効果的に検討する。
局所接続パターンを保ちながら、グローバルな相互作用を効果的に組み込むことで、包括的なハイパーグラフ表現学習を実現する。
論文 参考訳(メタデータ) (2023-12-18T17:50:52Z) - HyperDID: Hyperspectral Intrinsic Image Decomposition with Deep Feature
Embedding [9.32185717565188]
本研究は, 深い特徴埋め込みを導入することで, 分類タスクの超スペクトル固有画像分解について再考する。
提案フレームワークであるHyperDIDには,環境特徴モジュール(EFM)とカテゴリー特徴モジュール(CFM)が組み込まれ,固有の特徴を抽出する。
3つの一般的なデータセットに対する実験結果は、ハイパースペクトル画像分類性能を改善するためにHyperDIDの有効性を検証する。
論文 参考訳(メタデータ) (2023-11-25T02:05:10Z) - A Survey of Graph and Attention Based Hyperspectral Image Classification
Methods for Remote Sensing Data [5.1901440366375855]
ハイパースペクトルイメージング(HSI)の分類におけるディープラーニング技術の利用は急速に増加している。
最近の手法では、グラフ畳み込みネットワークの利用と、予測にノード機能を使用するユニークな機能についても検討されている。
論文 参考訳(メタデータ) (2023-10-16T00:42:25Z) - Adversarial Feature Augmentation and Normalization for Visual
Recognition [109.6834687220478]
最近のコンピュータビジョンの進歩は、分類モデルの一般化能力を改善するために、逆データ拡張を利用する。
本稿では,中間的特徴埋め込みにおける敵対的拡張を提唱する効率的かつ効率的な代替手法を提案する。
代表的なバックボーンネットワークを用いて,多様な視覚認識タスクにまたがる提案手法を検証する。
論文 参考訳(メタデータ) (2021-03-22T20:36:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。