論文の概要: Low-Rank Adaption on Transformer-based Oriented Object Detector for Satellite Onboard Processing of Remote Sensing Images
- arxiv url: http://arxiv.org/abs/2406.02385v1
- Date: Tue, 4 Jun 2024 15:00:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-05 15:40:59.354909
- Title: Low-Rank Adaption on Transformer-based Oriented Object Detector for Satellite Onboard Processing of Remote Sensing Images
- Title(参考訳): リモートセンシング画像の衛星搭載処理のためのトランスフォーマーを用いたオブジェクト指向物体検出器の低域適応
- Authors: Xinyang Pu, Feng Xu,
- Abstract要約: 衛星搭載時の深層学習モデルは、リモートセンシング画像のリアルタイム解釈を可能にする。
本稿では,ローランク適応 (LoRA) モジュールを用いたパラメータ効率の高い微調整技術を提案する。
モデル全体のパラメータの12.4$%だけを微調整し、更新することで、完全な微調整モデルの性能の97$%から100$%までを達成できる。
- 参考スコア(独自算出の注目度): 5.234109158596138
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning models in satellite onboard enable real-time interpretation of remote sensing images, reducing the need for data transmission to the ground and conserving communication resources. As satellite numbers and observation frequencies increase, the demand for satellite onboard real-time image interpretation grows, highlighting the expanding importance and development of this technology. However, updating the extensive parameters of models deployed on the satellites for spaceborne object detection model is challenging due to the limitations of uplink bandwidth in wireless satellite communications. To address this issue, this paper proposes a method based on parameter-efficient fine-tuning technology with low-rank adaptation (LoRA) module. It involves training low-rank matrix parameters and integrating them with the original model's weight matrix through multiplication and summation, thereby fine-tuning the model parameters to adapt to new data distributions with minimal weight updates. The proposed method combines parameter-efficient fine-tuning with full fine-tuning in the parameter update strategy of the oriented object detection algorithm architecture. This strategy enables model performance improvements close to full fine-tuning effects with minimal parameter updates. In addition, low rank approximation is conducted to pick an optimal rank value for LoRA matrices. Extensive experiments verify the effectiveness of the proposed method. By fine-tuning and updating only 12.4$\%$ of the model's total parameters, it is able to achieve 97$\%$ to 100$\%$ of the performance of full fine-tuning models. Additionally, the reduced number of trainable parameters accelerates model training iterations and enhances the generalization and robustness of the oriented object detection model. The source code is available at: \url{https://github.com/fudanxu/LoRA-Det}.
- Abstract(参考訳): 衛星搭載の深層学習モデルは、リモートセンシング画像のリアルタイム解釈を可能にし、地上へのデータ送信の必要性を低減し、通信資源を保存する。
衛星番号と観測周波数が増加するにつれて、衛星搭載画像のリアルタイム解釈への需要が増大し、この技術の重要性と発展が強調される。
しかし、無線衛星通信におけるアップリンク帯域幅の制限のため、衛星に展開する対象物検出モデルに対する広範囲なパラメータの更新は困難である。
そこで本研究では,ローランク適応 (LoRA) モジュールを用いたパラメータ効率の高い微調整技術を提案する。
低ランク行列パラメータをトレーニングし、乗算と和を通じて元のモデルの重み行列と統合することにより、最小の重み更新で新しいデータ分布に適応するようにモデルパラメータを微調整する。
提案手法は、オブジェクト指向物体検出アルゴリズムアーキテクチャのパラメータ更新戦略において、パラメータ効率の良い微調整と完全な微調整を組み合わせる。
この戦略により、最小限のパラメータ更新で完全な微調整効果に近いモデルパフォーマンスの改善が可能になる。
さらに、ロラ行列の最適ランク値を選択するために、低階近似を行う。
大規模実験により提案手法の有効性が検証された。
モデルの全パラメータの12.4$\%$のみを微調整し、更新することで、完全な微調整モデルの性能の97$\%$から100$\%$に到達できる。
さらに、トレーニング可能なパラメータの削減はモデルのトレーニングイテレーションを加速させ、オブジェクト指向オブジェクト検出モデルの一般化と堅牢性を高める。
ソースコードは: \url{https://github.com/fudanxu/LoRA-Det}.comで入手できる。
関連論文リスト
- LoRTA: Low Rank Tensor Adaptation of Large Language Models [70.32218116940393]
Low Rank Adaptation (LoRA) は、下流タスクのための大規模な事前学習モデルに効果的に適応する、PEFT (Efficient Fine Tuning) 手法として人気がある。
モデル更新に低階テンソルパラメトリゼーションを用いる新しい手法を提案する。
提案手法は,大規模言語モデルの微調整に有効であり,比較性能を維持しつつ,パラメータ数の大幅な削減を実現している。
論文 参考訳(メタデータ) (2024-10-05T06:59:50Z) - Flat-LoRA: Low-Rank Adaption over a Flat Loss Landscape [52.98187034726091]
Low-Rank Adaptation (LoRA) は低ランク行列のみを最適化することでモデルを微調整する効率的な方法である。
ロラ空間に平坦に見える解は、全パラメータ空間に鋭い方向が存在し、一般化性能を損なう可能性がある。
フルパラメータ空間の平坦領域に位置する低ランク適応を求める効率的なアプローチであるFlat-LoRAを提案する。
論文 参考訳(メタデータ) (2024-09-22T11:24:10Z) - SaRA: High-Efficient Diffusion Model Fine-tuning with Progressive Sparse Low-Rank Adaptation [52.6922833948127]
本研究では,事前学習した拡散モデルにおけるパラメータの重要性について検討する。
本稿では,これらの非効率パラメータをフル活用するための新しいモデル微調整法を提案する。
本手法は,下流アプリケーションにおける事前学習モデルの生成能力を向上する。
論文 参考訳(メタデータ) (2024-09-10T16:44:47Z) - SMILE: Zero-Shot Sparse Mixture of Low-Rank Experts Construction From Pre-Trained Foundation Models [85.67096251281191]
我々は、ゼロショットスパースミクチャー(SMILE)と呼ばれるモデル融合に対する革新的なアプローチを提案する。
SMILEは、余分なデータやさらなるトレーニングなしに、ソースモデルをMoEモデルにアップスケーリングできる。
画像分類やテキスト生成タスクなど,さまざまなシナリオに対して,フル微調整とLoRA微調整を用いて広範な実験を行う。
論文 参考訳(メタデータ) (2024-08-19T17:32:15Z) - Low-Rank Representations Meets Deep Unfolding: A Generalized and
Interpretable Network for Hyperspectral Anomaly Detection [41.50904949744355]
現在のハイパースペクトル異常検出(HAD)ベンチマークデータセットは、低解像度、単純なバックグラウンド、検出データの小さなサイズに悩まされている。
これらの要因は、ロバスト性の観点からよく知られた低ランク表現(LRR)モデルの性能も制限する。
我々は、複雑なシナリオにおけるHADアルゴリズムの堅牢性を改善するために、新しいHADベンチマークデータセットであるAIR-HADを構築した。
論文 参考訳(メタデータ) (2024-02-23T14:15:58Z) - Flora: Low-Rank Adapters Are Secretly Gradient Compressors [30.224822087562163]
低ランク適応(LoRA)は、少ないパラメータをトレーニングすることで最適化状態を低減するために提案される。
LoRAは全体の重量更新行列を低ランクに制限し、モデル性能を制限している。
本稿では,プロジェクション行列を再サンプリングすることで高階更新を実現する Flora を提案する。
論文 参考訳(メタデータ) (2024-02-05T18:50:39Z) - SatDM: Synthesizing Realistic Satellite Image with Semantic Layout
Conditioning using Diffusion Models [0.0]
Denoising Diffusion Probabilistic Models (DDPM) は意味的レイアウトから現実的なイメージを合成する上で大きな可能性を証明している。
本稿では,セマンティックマップを用いて高品質で多様な衛星画像を生成する条件付きDDPMモデルを提案する。
提案モデルの有効性は,本研究の文脈内で導入した詳細なラベル付きデータセットを用いて検証する。
論文 参考訳(メタデータ) (2023-09-28T19:39:13Z) - Parameter-efficient Tuning of Large-scale Multimodal Foundation Model [68.24510810095802]
我々はこれらの課題を克服するために、クロスモーダル転送(Aurora)のための優雅なプロンプトフレームワークを提案する。
既存のアーキテクチャの冗長性を考慮すると、まずモード近似を用いて0.1Mのトレーニング可能なパラメータを生成し、マルチモーダルプロンプトチューニングを実装する。
6つのクロスモーダルベンチマークの徹底的な評価は、最先端のベンチマークを上回るだけでなく、完全な微調整アプローチよりも優れていることを示している。
論文 参考訳(メタデータ) (2023-05-15T06:40:56Z) - High-order Spatial Interactions Enhanced Lightweight Model for Optical
Remote Sensing Image-based Small Ship Detection [18.60170221864557]
我々は,高次空間相互作用に基づくtextitHSI-ShipDetectionNet という,新しい軽量フレームワークを提案する。
HSI-ShipDetectionNetには、小型船専用の予測ブランチと、複雑さの低減を目的とした軽量なハイブリッドアテンションブロックが含まれている。
本モデルでは,パブリックなKaggle海洋船舶検出データセットを用いて評価を行い,複数の最先端モデルと比較した。
論文 参考訳(メタデータ) (2023-04-07T18:40:49Z) - Edge Federated Learning Via Unit-Modulus Over-The-Air Computation
(Extended Version) [64.76619508293966]
本稿では,効率の良いエッジフェデレーション学習を実現するために,UM-AirCompフレームワークを提案する。
ローカルモデルパラメータを同時にアップロードし、アナログビームフォーミングを通じてグローバルモデルパラメータを更新する。
車両間自動運転シミュレーションプラットフォームにおけるUM-AirCompの実装を実演する。
論文 参考訳(メタデータ) (2021-01-28T15:10:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。