論文の概要: Compress-Align-Detect: onboard change detection from unregistered images
- arxiv url: http://arxiv.org/abs/2507.15578v1
- Date: Mon, 21 Jul 2025 12:58:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-22 20:51:32.399052
- Title: Compress-Align-Detect: onboard change detection from unregistered images
- Title(参考訳): Compress-Align-Detect:未登録画像からのオンボード変化検出
- Authors: Gabriele Inzerillo, Diego Valsesia, Aniello Fiengo, Enrico Magli,
- Abstract要約: 衛星画像からの変化検出は通常、数時間から数日の遅延を引き起こす。
本稿では,3つのサブモジュールからなるディープニューラルネットワークによるオンボード変更検出のための,新しい,効率的なフレームワークを提案する。
F1スコアは圧縮速度の関数として得られ、15W加速器のスループットは0.7Mp/sとなる。
- 参考スコア(独自算出の注目度): 19.98925976140884
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Change detection from satellite images typically incurs a delay ranging from several hours up to days because of latency in downlinking the acquired images and generating orthorectified image products at the ground stations; this may preclude real- or near real-time applications. To overcome this limitation, we propose shifting the entire change detection workflow onboard satellites. This requires to simultaneously solve challenges in data storage, image registration and change detection with a strict complexity constraint. In this paper, we present a novel and efficient framework for onboard change detection that addresses the aforementioned challenges in an end-to-end fashion with a deep neural network composed of three interlinked submodules: (1) image compression, tailored to minimize onboard data storage resources; (2) lightweight co-registration of non-orthorectified multi-temporal image pairs; and (3) a novel temporally-invariant and computationally efficient change detection model. This is the first approach in the literature combining all these tasks in a single end-to-end framework with the constraints dictated by onboard processing. Experimental results compare each submodule with the current state-of-the-art, and evaluate the performance of the overall integrated system in realistic setting on low-power hardware. Compelling change detection results are obtained in terms of F1 score as a function of compression rate, sustaining a throughput of 0.7 Mpixel/s on a 15W accelerator.
- Abstract(参考訳): 衛星画像からの変更検出は、取得した画像のダウンリンクの遅延と地上局での修正画像生成の遅延により、通常数時間から数日の遅延を引き起こす。
この制限を克服するため、衛星上の変更検出ワークフロー全体をシフトすることを提案する。
これは、データストレージ、画像登録、変更検出の課題を、厳格な複雑さの制約で同時に解決する必要がある。
本稿では、(1)画像圧縮、オンボードデータ記憶資源の最小化、(2)非orthorectified Multi-temporal image pairsの軽量な共存、(3)時間的不変かつ計算的に効率的な変更検出モデルという、3つの相互接続されたサブモジュールからなるディープニューラルネットワークを用いて、上記の課題に対処する、オンボード変更検出のための新しい効率的なフレームワークを提案する。
これは、すべてのタスクを1つのエンドツーエンドフレームワークとオンボード処理によって規定される制約を組み合わせる、文献における最初のアプローチである。
実験結果は,各サブモジュールと現在の最先端技術を比較し,低消費電力ハードウェア上での現実的な設定において,総合的な統合システムの性能を評価する。
圧縮速度の関数としてF1スコアの計算変化検出結果を求め、15W加速器に0.7Mp/sのスループットを保持する。
関連論文リスト
- FUSE: Label-Free Image-Event Joint Monocular Depth Estimation via Frequency-Decoupled Alignment and Degradation-Robust Fusion [63.87313550399871]
画像強調共同深度推定法は、頑健な知覚に相補的なモダリティを利用するが、一般化可能性の課題に直面している。
自己監督型転送(PST)と周波数デカップリング型フュージョンモジュール(FreDF)を提案する。
PSTは、画像基礎モデルと潜在空間アライメントによるクロスモーダルな知識伝達を確立する。
FreDFは、低周波構造成分から高周波エッジ特性を明示的に分離し、モード比周波数ミスマッチを解消する。
論文 参考訳(メタデータ) (2025-03-25T15:04:53Z) - Layer- and Timestep-Adaptive Differentiable Token Compression Ratios for Efficient Diffusion Transformers [55.87192133758051]
Diffusion Transformer (DiTs)は、最先端(SOTA)画像生成の品質を達成したが、レイテンシとメモリ非効率に悩まされている。
圧縮比の異なる動的DiT推論フレームワークであるDiffCRを提案する。
論文 参考訳(メタデータ) (2024-12-22T02:04:17Z) - OminiControl: Minimal and Universal Control for Diffusion Transformer [68.3243031301164]
我々は,Diffusion Transformer(DiT)アーキテクチャに画像条件をどのように統合するかを再考する,新しいアプローチであるOminiControlを提案する。
OminiControlは3つの重要なイノベーションを通じて、これらの制限に対処する。
論文 参考訳(メタデータ) (2024-11-22T17:55:15Z) - Continuous Urban Change Detection from Satellite Image Time Series with Temporal Feature Refinement and Multi-Task Integration [5.095834019284525]
2つの重要なモジュールを組み込んだ連続的な都市変化検出フレームワークを提案する。
時間的特徴改善(TFR)モジュールは、ConvNetベースのマルチ時間的ビルディング表現を改善するために自己アテンションを使用する。
マルチタスク統合(MTI)モジュールはマルコフネットワークを利用して最適なビルディングマップ時系列を見つける。
論文 参考訳(メタデータ) (2024-06-25T10:53:57Z) - Exchange means change: an unsupervised single-temporal change detection
framework based on intra- and inter-image patch exchange [44.845959222180866]
画像内および画像間パッチ交換(I3PE)に基づく教師なし単一時間CDフレームワークを提案する。
I3PEフレームワークは、損傷のない、ラベルなしの単一時間リモートセンシング画像上で、深い変化検出を訓練することができる。
I3PEは教師なしのアプローチよりも優れており、SOTA法では10.65%と6.99%のF1値の改善を実現している。
論文 参考訳(メタデータ) (2023-10-01T14:50:54Z) - Augmenting Deep Learning Adaptation for Wearable Sensor Data through
Combined Temporal-Frequency Image Encoding [4.458210211781739]
本稿では、時間領域情報と周波数領域情報をシームレスに統合した、新しい修正繰り返しプロットベースの画像表現を提案する。
加速度センサを用いた活動認識データと事前訓練されたResNetモデルを用いて提案手法の評価を行い,既存の手法と比較して優れた性能を示す。
論文 参考訳(メタデータ) (2023-07-03T09:29:27Z) - Unfolding Framework with Prior of Convolution-Transformer Mixture and
Uncertainty Estimation for Video Snapshot Compressive Imaging [7.601695814245209]
本稿では, 連続する高速フレームを異なるマスクで変調し, 単一の計測でキャプチャする, ビデオスナップショット圧縮画像(SCI)の問題点について考察する。
最適化アルゴリズムとニューラルネットワークを組み合わせることで、ディープ・アンフォールディング・ネットワーク(DUN)は、逆問題の解決において大きな成果を上げた。
論文 参考訳(メタデータ) (2023-06-20T06:25:48Z) - Breaking Modality Disparity: Harmonized Representation for Infrared and
Visible Image Registration [66.33746403815283]
シーン適応型赤外線と可視画像の登録を提案する。
我々は、異なる平面間の変形をシミュレートするためにホモグラフィーを用いる。
我々は、まず、赤外線と可視画像のデータセットが不一致であることを示す。
論文 参考訳(メタデータ) (2023-04-12T06:49:56Z) - Read Pointer Meters in complex environments based on a Human-like
Alignment and Recognition Algorithm [16.823681016882315]
これらの問題を克服するための人間ライクなアライメントと認識アルゴリズムを提案する。
STM(Spatial Transformed Module)は,画像のフロントビューを自己自律的に取得するために提案される。
VAM(Value Acquisition Module)は、エンドツーエンドのトレーニングフレームワークによって正確なメーター値を推測するために提案される。
論文 参考訳(メタデータ) (2023-02-28T05:37:04Z) - Learning a Model-Driven Variational Network for Deformable Image
Registration [89.9830129923847]
VR-Netは、教師なしの変形可能な画像登録のための新しいカスケード可変ネットワークである。
登録精度において最先端のディープラーニング手法よりも優れています。
ディープラーニングの高速推論速度と変分モデルのデータ効率を維持している。
論文 参考訳(メタデータ) (2021-05-25T21:37:37Z) - Thinking Fast and Slow: Efficient Text-to-Visual Retrieval with
Transformers [115.90778814368703]
目的は,大規模画像とビデオデータセットの言語検索である。
このタスクでは、独立してテキストとビジョンを共同埋め込み空間 a.k.a にマッピングする。
デュアルエンコーダは 検索スケールとして魅力的です
視覚テキスト変換器をクロスアテンションで使用する別のアプローチは、関節埋め込みよりも精度が大幅に向上する。
論文 参考訳(メタデータ) (2021-03-30T17:57:08Z) - Event-based Asynchronous Sparse Convolutional Networks [54.094244806123235]
イベントカメラはバイオインスパイアされたセンサーで、非同期でスパースな「イベント」の形で画素ごとの明るさ変化に反応する。
同期画像のようなイベント表現で訓練されたモデルを、同じ出力を持つ非同期モデルに変換するための一般的なフレームワークを提案する。
理論的および実験的に、これは高容量同期ニューラルネットワークの計算複雑性と遅延を大幅に減少させることを示す。
論文 参考訳(メタデータ) (2020-03-20T08:39:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。