論文の概要: When marine radar target detection meets pretrained large language models
- arxiv url: http://arxiv.org/abs/2509.12110v1
- Date: Mon, 15 Sep 2025 16:38:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:23.405949
- Title: When marine radar target detection meets pretrained large language models
- Title(参考訳): 海洋レーダターゲット検出が事前訓練された大規模言語モデルに適合する場合
- Authors: Qiying Hu, Linping Zhang, Xueqian Wang, Gang Li, Yu Liu, Xiao-Ping Zhang,
- Abstract要約: 機能前処理を大規模言語モデル(LLM)と統合するフレームワークを提案する。
我々の前処理モジュールは、レーダシーケンスの特徴をトークン化し、不定形セグメントをフィルタリングするためにパッチ選択アルゴリズムを適用し、選択したパッチを事前訓練されたLLMの特徴空間と互換性のある埋め込みに投影する。
実験により,提案手法は教師あり学習試験における最先端のベースラインを著しく上回ることを示した。
- 参考スコア(独自算出の注目度): 19.91452033424555
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning (DL) methods are widely used to extract high-dimensional patterns from the sequence features of radar echo signals. However, conventional DL algorithms face challenges such as redundant feature segments, and constraints from restricted model sizes. To address these issues, we propose a framework that integrates feature preprocessing with large language models (LLMs). Our preprocessing module tokenizes radar sequence features, applies a patch selection algorithm to filter out uninformative segments, and projects the selected patches into embeddings compatible with the feature space of pre-trained LLMs. Leveraging these refined embeddings, we incorporate a pre-trained LLM, fine-tuning only the normalization layers to reduce training burdens while enhancing performance. Experiments on measured datasets demonstrate that the proposed method significantly outperforms the state-of-the-art baselines on supervised learning tests.
- Abstract(参考訳): ディープラーニング(DL)法はレーダエコー信号のシーケンス特徴から高次元パターンを抽出するために広く用いられている。
しかし、従来のDLアルゴリズムでは、冗長な特徴セグメントや制限されたモデルサイズからの制約といった問題に直面している。
これらの問題に対処するために,機能前処理を大規模言語モデル(LLM)と統合するフレームワークを提案する。
我々の前処理モジュールは、レーダシーケンスの特徴をトークン化し、不定形セグメントをフィルタリングするためにパッチ選択アルゴリズムを適用し、選択したパッチを事前訓練されたLLMの特徴空間と互換性のある埋め込みに投影する。
これらの改良された埋め込みを生かして、トレーニング済みのLCMを組み込み、正規化層のみを微調整し、性能を高めながらトレーニング負担を軽減する。
実験により,提案手法は教師あり学習試験における最先端のベースラインを著しく上回ることを示した。
関連論文リスト
- RadarLLM: Adapting Pretrained Large Language Models for Marine Radar Target Detection with Preference-aware Loss [0.0]
本稿では,RadarLLMについて紹介する。
RadarLLMは、さまざまな検出シナリオで、最先端のベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2025-09-15T16:16:57Z) - Quantization Meets dLLMs: A Systematic Study of Post-training Quantization for Diffusion LLMs [54.70676039314542]
本稿では拡散に基づく言語モデルの定量化に関する最初の体系的研究について述べる。
異常に大きなアクティベーション値によって特徴付けられるアクティベーションアウトリーチの存在を同定する。
我々は、最先端のPTQ手法を実装し、複数のタスクタイプとモデル変種を包括的に評価する。
論文 参考訳(メタデータ) (2025-08-20T17:59:51Z) - Self-Supervised Radio Pre-training: Toward Foundational Models for Spectrogram Learning [6.1339395157466425]
Foundational Deep Learning(DL)モデルは、多種多様で多様なデータセットに基づいてトレーニングされた一般的なモデルである。
本稿では,無線信号を用いた基礎DLモデルの事前学習のための,新しい自己教師型学習手法であるMasked Spectrogram Modelingを紹介する。
論文 参考訳(メタデータ) (2024-11-14T23:56:57Z) - Zeroth-Order Fine-Tuning of LLMs in Random Subspaces [63.10833446782114]
言語モデルのサイズが大きくなるにつれて、バックプロパゲーションに対するメモリ要求が増加する。
Zeroth-order (ZO) 最適化手法はメモリ効率の良い代替手段を提供する。
本稿では,高次元摂動によって生じる課題に対処するために,部分空間ゼロ次最適化を提案する。
論文 参考訳(メタデータ) (2024-10-11T17:01:43Z) - SWIFT: On-the-Fly Self-Speculative Decoding for LLM Inference Acceleration [10.970637831760136]
投機的復号法(SD)は,LLM推論を品質を損なうことなく高速化するためのパラダイムとして広く用いられている。
本稿では,LLMの中間層を適応的に選択して推論時にスキップする,オンザフライの自己投機的復号アルゴリズムであるSWIFTを紹介する。
実験により,SWIFTは生成したテキストの元の分布を保ちながら,1.3x-1.6x以上の高速化を実現することができることを示した。
論文 参考訳(メタデータ) (2024-10-09T14:15:30Z) - Querying Easily Flip-flopped Samples for Deep Active Learning [63.62397322172216]
アクティブラーニング(英: Active Learning)は、ラベルのないデータを戦略的に選択してクエリすることで、モデルの性能を向上させることを目的とした機械学習パラダイムである。
効果的な選択戦略の1つはモデルの予測の不確実性に基づくもので、サンプルがどの程度情報的であるかの尺度として解釈できる。
本稿では,予測されたラベルの不一致の最小確率として,最小不一致距離(LDM)を提案する。
論文 参考訳(メタデータ) (2024-01-18T08:12:23Z) - Dense Learning based Semi-Supervised Object Detection [46.885301243656045]
半教師付きオブジェクト検出(SSOD)は、大量のラベルのないデータの助けを借りて、オブジェクト検出器の訓練と展開を容易にすることを目的としている。
本稿では,DenSe Learningに基づくアンカーフリーSSODアルゴリズムを提案する。
実験はMS-COCOとPASCAL-VOCで行われ,提案手法は新たな最先端SSOD性能を記録する。
論文 参考訳(メタデータ) (2022-04-15T02:31:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。