論文の概要: When marine radar target detection meets pretrained large language models
- arxiv url: http://arxiv.org/abs/2509.12110v1
- Date: Mon, 15 Sep 2025 16:38:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:23.405949
- Title: When marine radar target detection meets pretrained large language models
- Title(参考訳): 海洋レーダターゲット検出が事前訓練された大規模言語モデルに適合する場合
- Authors: Qiying Hu, Linping Zhang, Xueqian Wang, Gang Li, Yu Liu, Xiao-Ping Zhang,
- Abstract要約: 機能前処理を大規模言語モデル(LLM)と統合するフレームワークを提案する。
我々の前処理モジュールは、レーダシーケンスの特徴をトークン化し、不定形セグメントをフィルタリングするためにパッチ選択アルゴリズムを適用し、選択したパッチを事前訓練されたLLMの特徴空間と互換性のある埋め込みに投影する。
実験により,提案手法は教師あり学習試験における最先端のベースラインを著しく上回ることを示した。
- 参考スコア(独自算出の注目度): 19.91452033424555
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning (DL) methods are widely used to extract high-dimensional patterns from the sequence features of radar echo signals. However, conventional DL algorithms face challenges such as redundant feature segments, and constraints from restricted model sizes. To address these issues, we propose a framework that integrates feature preprocessing with large language models (LLMs). Our preprocessing module tokenizes radar sequence features, applies a patch selection algorithm to filter out uninformative segments, and projects the selected patches into embeddings compatible with the feature space of pre-trained LLMs. Leveraging these refined embeddings, we incorporate a pre-trained LLM, fine-tuning only the normalization layers to reduce training burdens while enhancing performance. Experiments on measured datasets demonstrate that the proposed method significantly outperforms the state-of-the-art baselines on supervised learning tests.
- Abstract(参考訳): ディープラーニング(DL)法はレーダエコー信号のシーケンス特徴から高次元パターンを抽出するために広く用いられている。
しかし、従来のDLアルゴリズムでは、冗長な特徴セグメントや制限されたモデルサイズからの制約といった問題に直面している。
これらの問題に対処するために,機能前処理を大規模言語モデル(LLM)と統合するフレームワークを提案する。
我々の前処理モジュールは、レーダシーケンスの特徴をトークン化し、不定形セグメントをフィルタリングするためにパッチ選択アルゴリズムを適用し、選択したパッチを事前訓練されたLLMの特徴空間と互換性のある埋め込みに投影する。
これらの改良された埋め込みを生かして、トレーニング済みのLCMを組み込み、正規化層のみを微調整し、性能を高めながらトレーニング負担を軽減する。
実験により,提案手法は教師あり学習試験における最先端のベースラインを著しく上回ることを示した。
関連論文リスト
- LLM-Enhanced Reinforcement Learning for Time Series Anomaly Detection [1.1852406625172216]
時系列異常検出は、しばしばスパースラベル、複雑な時間パターン、高価な専門家アノテーションに悩まされる。
本稿では,LL(Reinforcement Learning),VAE(Variational Autoencoder)の強化された動的報酬スケーリング,ラベル伝搬によるアクティブラーニングを併用した,LLM(Large Language Model)に基づく報酬形成機能の統合フレームワークを提案する。
論文 参考訳(メタデータ) (2026-01-05T19:33:30Z) - Language Ranker: A Lightweight Ranking framework for LLM Decoding [70.01564145836129]
本稿では,レコメンデーションパイプラインのランク付け段階に類似した復号過程を概念化する。
この知見に触発されて、我々はLanguage Rankerを提案する。
実験の結果、Language Rankerは大規模報酬モデルに匹敵するパフォーマンスを達成する一方で、0.5Mの追加パラメータしか必要としないことがわかった。
論文 参考訳(メタデータ) (2025-10-23T17:56:46Z) - RadarLLM: Adapting Pretrained Large Language Models for Marine Radar Target Detection with Preference-aware Loss [0.0]
本稿では,RadarLLMについて紹介する。
RadarLLMは、さまざまな検出シナリオで、最先端のベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2025-09-15T16:16:57Z) - DetectAnyLLM: Towards Generalizable and Robust Detection of Machine-Generated Text Across Domains and Models [60.713908578319256]
タスク指向の知識で検出器を最適化するために,DDL(Direct Discrepancy Learning)を提案する。
そこで本研究では,最新のMGTD性能を実現する統合検出フレームワークであるTectAnyLLMを紹介する。
MIRAGEは5つのテキストドメインにまたがる10のコーパスから人書きテキストをサンプリングし、17個の最先端のLLMを使用して再生成または修正する。
論文 参考訳(メタデータ) (2025-09-15T10:59:57Z) - Quantization Meets dLLMs: A Systematic Study of Post-training Quantization for Diffusion LLMs [54.70676039314542]
本稿では拡散に基づく言語モデルの定量化に関する最初の体系的研究について述べる。
異常に大きなアクティベーション値によって特徴付けられるアクティベーションアウトリーチの存在を同定する。
我々は、最先端のPTQ手法を実装し、複数のタスクタイプとモデル変種を包括的に評価する。
論文 参考訳(メタデータ) (2025-08-20T17:59:51Z) - Self-Supervised Radio Pre-training: Toward Foundational Models for Spectrogram Learning [6.1339395157466425]
Foundational Deep Learning(DL)モデルは、多種多様で多様なデータセットに基づいてトレーニングされた一般的なモデルである。
本稿では,無線信号を用いた基礎DLモデルの事前学習のための,新しい自己教師型学習手法であるMasked Spectrogram Modelingを紹介する。
論文 参考訳(メタデータ) (2024-11-14T23:56:57Z) - Zeroth-Order Fine-Tuning of LLMs in Random Subspaces [63.10833446782114]
言語モデルのサイズが大きくなるにつれて、バックプロパゲーションに対するメモリ要求が増加する。
Zeroth-order (ZO) 最適化手法はメモリ効率の良い代替手段を提供する。
本稿では,高次元摂動によって生じる課題に対処するために,部分空間ゼロ次最適化を提案する。
論文 参考訳(メタデータ) (2024-10-11T17:01:43Z) - SWIFT: On-the-Fly Self-Speculative Decoding for LLM Inference Acceleration [10.970637831760136]
投機的復号法(SD)は,LLM推論を品質を損なうことなく高速化するためのパラダイムとして広く用いられている。
本稿では,LLMの中間層を適応的に選択して推論時にスキップする,オンザフライの自己投機的復号アルゴリズムであるSWIFTを紹介する。
実験により,SWIFTは生成したテキストの元の分布を保ちながら,1.3x-1.6x以上の高速化を実現することができることを示した。
論文 参考訳(メタデータ) (2024-10-09T14:15:30Z) - Querying Easily Flip-flopped Samples for Deep Active Learning [63.62397322172216]
アクティブラーニング(英: Active Learning)は、ラベルのないデータを戦略的に選択してクエリすることで、モデルの性能を向上させることを目的とした機械学習パラダイムである。
効果的な選択戦略の1つはモデルの予測の不確実性に基づくもので、サンプルがどの程度情報的であるかの尺度として解釈できる。
本稿では,予測されたラベルの不一致の最小確率として,最小不一致距離(LDM)を提案する。
論文 参考訳(メタデータ) (2024-01-18T08:12:23Z) - Dense Learning based Semi-Supervised Object Detection [46.885301243656045]
半教師付きオブジェクト検出(SSOD)は、大量のラベルのないデータの助けを借りて、オブジェクト検出器の訓練と展開を容易にすることを目的としている。
本稿では,DenSe Learningに基づくアンカーフリーSSODアルゴリズムを提案する。
実験はMS-COCOとPASCAL-VOCで行われ,提案手法は新たな最先端SSOD性能を記録する。
論文 参考訳(メタデータ) (2022-04-15T02:31:02Z) - Activation to Saliency: Forming High-Quality Labels for Unsupervised
Salient Object Detection [54.92703325989853]
本稿では,高品質なサリエンシキューを効果的に生成する2段階アクティベーション・ツー・サリエンシ(A2S)フレームワークを提案する。
トレーニングプロセス全体において、私たちのフレームワークにヒューマンアノテーションは関与していません。
本フレームワークは,既存のUSOD法と比較して高い性能を示した。
論文 参考訳(メタデータ) (2021-12-07T11:54:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。