論文の概要: Locality Preserving Multiview Graph Hashing for Large Scale Remote
Sensing Image Search
- arxiv url: http://arxiv.org/abs/2304.04368v1
- Date: Mon, 10 Apr 2023 03:39:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-11 16:07:03.086773
- Title: Locality Preserving Multiview Graph Hashing for Large Scale Remote
Sensing Image Search
- Title(参考訳): 大規模リモートセンシング画像検索のためのマルチビューグラフハッシュのための局所保存
- Authors: Wenyun Li, Guo Zhong, Xingyu Lu, Chi-Man Pun
- Abstract要約: 本稿では,大規模リモートセンシングデータセットの検索画像を取得するために,学習可能なパラメータを持つマルチビューハッシュを提案する。
本稿では,従来の方法とは異なり,ビュー固有の低次元部分空間において,コンセンサスをコンパクトに学習することを提案する。
提案手法の有効性を証明するために,広範に使用されている3つのリモートセンシングデータセットの実験を行い,それらを7つの最先端手法と比較した。
- 参考スコア(独自算出の注目度): 41.0915290980769
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Hashing is very popular for remote sensing image search. This article
proposes a multiview hashing with learnable parameters to retrieve the queried
images for a large-scale remote sensing dataset. Existing methods always
neglect that real-world remote sensing data lies on a low-dimensional manifold
embedded in high-dimensional ambient space. Unlike previous methods, this
article proposes to learn the consensus compact codes in a view-specific
low-dimensional subspace. Furthermore, we have added a hyperparameter learnable
module to avoid complex parameter tuning. In order to prove the effectiveness
of our method, we carried out experiments on three widely used remote sensing
data sets and compared them with seven state-of-the-art methods. Extensive
experiments show that the proposed method can achieve competitive results
compared to the other method.
- Abstract(参考訳): ハッシュはリモートセンシング画像検索で非常に人気がある。
本稿では,大規模リモートセンシングデータセットの検索画像を取得するために,学習可能なパラメータを持つマルチビューハッシュを提案する。
既存の方法は、実世界のリモートセンシングデータが高次元空間に埋め込まれた低次元多様体上にあることを常に無視する。
本稿では,従来の手法とは異なり,ビュー固有低次元部分空間におけるコンセンサスコンパクト符号の学習を提案する。
さらに,複雑なパラメータチューニングを回避するためにハイパーパラメータ学習モジュールを追加した。
提案手法の有効性を証明するために,広範に使用されている3つのリモートセンシングデータセットの実験を行い,それらを7つの最先端手法と比較した。
実験の結果,提案手法は,他の手法と比較して競争力のある結果が得られることがわかった。
関連論文リスト
- Efficient Curation of Invertebrate Image Datasets Using Feature Embeddings and Automatic Size Comparison [5.480305055542485]
非脊椎動物の大規模な画像データセットをキュレートする手法を提案する。
我々のアプローチは、事前訓練されたディープニューラルネットワークによる特徴埋め込みの抽出に基づいている。
また,簡単な領域ベースサイズ比較手法により,多くの誤画像が検出可能であることを示す。
論文 参考訳(メタデータ) (2024-12-20T12:35:41Z) - Rethinking Transformers Pre-training for Multi-Spectral Satellite
Imagery [78.43828998065071]
教師なし学習の最近の進歩は、下流タスクにおける有望な結果を達成するための大きな視覚モデルの可能性を示している。
このような事前学習技術は、大量の未学習データが利用可能であることから、リモートセンシング領域でも最近研究されている。
本稿では,マルチモーダルで効果的に活用されるマルチスケール情報の事前学習と活用について述べる。
論文 参考訳(メタデータ) (2024-03-08T16:18:04Z) - DeepMerge: Deep-Learning-Based Region-Merging for Image Segmentation [7.063322114865965]
本稿では,DeepMergeと呼ばれる深層学習に基づく領域マージ手法を提案する。
これは、ディープラーニングを用いて類似性を学習し、RAGに隣接する類似のスーパーピクセルをマージする最初の方法である。
DeepMergeは最も高いF値(0.9550)と最も低い総誤差TE(0.0895)を達成し、異なるサイズのオブジェクトを正しく分割し、競合する全てのセグメンテーション法より優れている。
論文 参考訳(メタデータ) (2023-05-31T12:27:58Z) - SparseFusion: Fusing Multi-Modal Sparse Representations for Multi-Sensor
3D Object Detection [84.09798649295038]
物体がシーンのごく一部を占めることを考えると、密度の高い候補を見つけ、密度の高い表現を生成するのは騒々しく非効率である。
スパース候補とスパース表現のみを用いた新しいマルチセンサ3D検出法であるスパースフュージョンを提案する。
SparseFusionは、nuScenesベンチマークで最先端のパフォーマンスを達成しつつ、高速で動作し、バックボーンがより強力なメソッドよりも優れています。
論文 参考訳(メタデータ) (2023-04-27T17:17:39Z) - Training Methods of Multi-label Prediction Classifiers for Hyperspectral
Remote Sensing Images [0.0]
ハイパースペクトルリモートセンシング画像に対するマルチラベル・パッチレベルの分類法を提案する。
リモートセンシング画像から抽出した空間次元を縮小したパッチと全スペクトル深度を用いた。
論文 参考訳(メタデータ) (2023-01-17T13:30:03Z) - Aerial Images Meet Crowdsourced Trajectories: A New Approach to Robust
Road Extraction [110.61383502442598]
我々は、Cross-Modal Message Propagation Network (CMMPNet)と呼ばれる新しいニューラルネットワークフレームワークを紹介する。
CMMPNetは、モダリティ固有の表現学習のための2つのディープオートエンコーダと、クロスモーダル表現洗練のためのテーラー設計のデュアルエンハンスメントモジュールで構成されている。
実世界の3つのベンチマーク実験により, CMMPNetによる堅牢な道路抽出の有効性が示された。
論文 参考訳(メタデータ) (2021-11-30T04:30:10Z) - M2TR: Multi-modal Multi-scale Transformers for Deepfake Detection [74.19291916812921]
Deepfake技術によって生成された鍛造画像は、デジタル情報の信頼性に深刻な脅威をもたらします。
本稿では,Deepfake検出のための微妙な操作アーチファクトを異なるスケールで捉えることを目的とする。
最先端の顔スワッピングと顔の再現方法によって生成された4000のDeepFakeビデオで構成される高品質のDeepFakeデータセットSR-DFを紹介します。
論文 参考訳(メタデータ) (2021-04-20T05:43:44Z) - Refer-it-in-RGBD: A Bottom-up Approach for 3D Visual Grounding in RGBD
Images [69.5662419067878]
RGBD画像における接地参照表現は新たな分野である。
本稿では,参照する物体が閉塞により部分的にスキャンされる場合が多い単視点rgbd画像における3次元視覚グランド化の新たな課題を提案する。
提案手法はまず,RGBD画像内の関連領域をローカライズするヒートマップを生成するために,下層の言語と視覚的特徴を融合させる。
次に、ヒートマップに基づく適応的特徴学習を行い、他のビジオ言語融合とオブジェクトレベルのマッチングを行い、最後に参照したオブジェクトを接地する。
論文 参考訳(メタデータ) (2021-03-14T11:18:50Z) - Multi-Dimension Fusion Network for Light Field Spatial Super-Resolution
using Dynamic Filters [23.82780431526054]
光フィールドの空間分解能を改善するための新しい学習ベースフレームワークを提案する。
再構成された画像は、サブアパーチャ画像とエピポーラ平面画像の両方において、鮮明な細部と明瞭な線も示している。
論文 参考訳(メタデータ) (2020-08-26T09:05:07Z) - Deep Multi-View Enhancement Hashing for Image Retrieval [40.974719473643724]
本稿では,ニューラルネットワークによるマルチビュー情報の強化が可能な教師付きマルチビューハッシュモデルを提案する。
提案手法は, CIFAR-10, NUS-WIDE, MS-COCOデータセットを用いて, システム評価を行った。
論文 参考訳(メタデータ) (2020-02-01T08:32:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。