論文の概要: SignalLLM: A General-Purpose LLM Agent Framework for Automated Signal Processing
- arxiv url: http://arxiv.org/abs/2509.17197v1
- Date: Sun, 21 Sep 2025 18:54:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.163069
- Title: SignalLLM: A General-Purpose LLM Agent Framework for Automated Signal Processing
- Title(参考訳): SignalLLM: 自動信号処理のための汎用LLMエージェントフレームワーク
- Authors: Junlong Ke, Qiying Hu, Shenghai Yuan, Yuecong Xu, Jianfei Yang,
- Abstract要約: 大規模言語モデル(LLM)は、強力な推論能力、幅広い汎用知識、文脈内学習、モーダル間伝達能力を提供する。
本稿では,SPタスクのための汎用LLMベースのエージェントフレームワークであるSignalLLMを紹介する。
コミュニケーションとセンシングにおける5つの代表的なタスクを通して,SignalLLMの汎用性と有効性を示す。
- 参考スコア(独自算出の注目度): 36.22027224597969
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern signal processing (SP) pipelines, whether model-based or data-driven, often constrained by complex and fragmented workflow, rely heavily on expert knowledge and manual engineering, and struggle with adaptability and generalization under limited data. In contrast, Large Language Models (LLMs) offer strong reasoning capabilities, broad general-purpose knowledge, in-context learning, and cross-modal transfer abilities, positioning them as powerful tools for automating and generalizing SP workflows. Motivated by these potentials, we introduce SignalLLM, the first general-purpose LLM-based agent framework for general SP tasks. Unlike prior LLM-based SP approaches that are limited to narrow applications or tricky prompting, SignalLLM introduces a principled, modular architecture. It decomposes high-level SP goals into structured subtasks via in-context learning and domain-specific retrieval, followed by hierarchical planning through adaptive retrieval-augmented generation (RAG) and refinement; these subtasks are then executed through prompt-based reasoning, cross-modal reasoning, code synthesis, model invocation, or data-driven LLM-assisted modeling. Its generalizable design enables the flexible selection of problem solving strategies across different signal modalities, task types, and data conditions. We demonstrate the versatility and effectiveness of SignalLLM through five representative tasks in communication and sensing, such as radar target detection, human activity recognition, and text compression. Experimental results show superior performance over traditional and existing LLM-based methods, particularly in few-shot and zero-shot settings.
- Abstract(参考訳): モデルベースまたはデータ駆動のパイプラインは、しばしば複雑で断片化されたワークフローによって制約され、専門家の知識と手動工学に大きく依存し、限られたデータの下で適応性と一般化に苦労する。
対照的に、Large Language Models (LLMs) は強力な推論能力、広範な汎用知識、コンテキスト内学習、相互変換能力を提供し、それらをSPワークフローの自動化と一般化のための強力なツールとして位置づけている。
これらのポテンシャルに触発され、一般SPタスクのための最初の汎用LLMベースのエージェントフレームワークであるSignalLLMを導入する。
狭義のアプリケーションやトリッキーなプロンプトに制限された従来のLLMベースのSPアプローチとは異なり、SignalLLMは原則化されたモジュラーアーキテクチャを導入している。
テキスト内学習とドメイン固有検索によって高レベルのSP目標を構造化サブタスクに分解し、続いて適応型検索拡張生成(RAG)と改良による階層的計画を行い、これらのサブタスクは、プロンプトベースの推論、クロスモーダル推論、コード合成、モデル呼び出し、データ駆動LCM支援モデリングによって実行される。
その一般化可能な設計は、様々な信号のモダリティ、タスクタイプ、データ条件をまたいだ問題解決戦略の柔軟な選択を可能にする。
本稿では,レーダ目標検出,人間活動認識,テキスト圧縮などの通信・センシングにおける5つの代表的なタスクを通じて,SignalLLMの汎用性と有効性を示す。
実験により,従来のLCM法や既存のLCM法よりも優れた性能が得られた。
関連論文リスト
- Difficulty-Aware Agent Orchestration in LLM-Powered Workflows [5.413626686277941]
大規模言語モデル(LLM)ベースのエージェントシステムは、様々なタスクにまたがって強力な能力を示している。
既存のマルチエージェントフレームワークは、単純なクエリを過度に処理するか、複雑なクエリを過度に実行する静的あるいはタスクレベルに依存していることが多い。
本稿では,各入力クエリの難易度に基づいて,ワークフローの深さ,演算子選択,LLM割り当てを適応させる動的フレームワークであるDifficulty-Aware Agentic Orchestration (DAAO)を提案する。
論文 参考訳(メタデータ) (2025-09-14T03:57:43Z) - RemoteReasoner: Towards Unifying Geospatial Reasoning Workflow [19.502882116487005]
リモートセンシング画像は、大きく、本質的に非構造的な空間データを提示する。
地理空間推論のための統合ワークフローであるRemoteReasonerを提案する。
RemoteReasonerは、複数の粒度推論タスクにわたる最先端(SOTA)パフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-07-25T13:58:11Z) - Discrete Tokenization for Multimodal LLMs: A Comprehensive Survey [69.45421620616486]
本研究は、大規模言語モデル(LLM)用に設計された離散トークン化手法の最初の構造的分類と解析である。
古典的および近代的なパラダイムにまたがる8つの代表的なVQ変種を分類し、アルゴリズムの原理を分析し、力学を訓練し、LLMパイプラインとの統合に挑戦する。
コードブックの崩壊、不安定な勾配推定、モダリティ固有の符号化制約など、重要な課題を特定する。
論文 参考訳(メタデータ) (2025-07-21T10:52:14Z) - Towards Efficient Multi-LLM Inference: Characterization and Analysis of LLM Routing and Hierarchical Techniques [14.892995952768352]
言語モデル(LM)は、テキスト生成、要約、質問応答といったタスクに優れています。
彼らの推論は計算コストが高く、ハードウェア、電力、帯域幅に制限のある設定でエネルギーを集中的に消費する。
近年のアプローチでは、クエリの複雑さに基づいて、動的に計算資源を割り当てる複数のLLMインテリジェントモデル選択戦略が導入されている。
論文 参考訳(メタデータ) (2025-06-06T23:13:08Z) - New Dataset and Methods for Fine-Grained Compositional Referring Expression Comprehension via Specialist-MLLM Collaboration [49.180693704510006]
Referring Expression (REC) は、言語理解、画像理解、言語と画像の接点の相互作用を評価するためのクロスモーダルなタスクである。
MLLM(Multimodal Large Language Models)の試験場として機能する。
論文 参考訳(メタデータ) (2025-02-27T13:58:44Z) - Towards more Contextual Agents: An extractor-Generator Optimization Framework [0.0]
LLM(Large Language Model)ベースのエージェントは、幅広い汎用アプリケーションにわたる複雑なタスクの解決に顕著な成功を収めている。
しかしながら、それらのパフォーマンスは、専門産業や研究領域のようなコンテキスト固有のシナリオで劣化することが多い。
この課題に対処するため,本研究では,LLMエージェントの文脈適応性を高めるための体系的アプローチを提案する。
論文 参考訳(メタデータ) (2025-02-18T15:07:06Z) - Scaling Autonomous Agents via Automatic Reward Modeling And Planning [52.39395405893965]
大規模言語モデル(LLM)は、様々なタスクにまたがる顕著な機能を示している。
しかし、彼らは多段階の意思決定と環境フィードバックを必要とする問題に苦戦している。
人間のアノテーションを使わずに環境から報酬モデルを自動的に学習できるフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-17T18:49:25Z) - AgentPS: Agentic Process Supervision for Content Moderation with Multimodal LLMs [9.35901507816989]
本稿では,Agentic Process Supervisionを大規模言語モデルに統合するフレームワークであるAgentPSを紹介する。
我々は、AgentPSが、公開ベンチマークとプロプライエタリデータセットのベースラインMLLMよりも大幅に改善されていることを示す。
これらの結果は、大規模産業アプリケーションにおける複雑なマルチモーダル分類のためのスケーラブルで効果的なソリューションとして、AgentPSを確立している。
論文 参考訳(メタデータ) (2024-12-15T04:58:00Z) - Efficient Prompting for LLM-based Generative Internet of Things [88.84327500311464]
大規模言語モデル(LLM)は、様々なタスクにおいて顕著な能力を示しており、最近、IoT(Internet of Things)アプリケーションにLLMの能力を統合することが研究の注目を集めている。
セキュリティ上の懸念から、多くの機関は最先端の商用LLMサービスへのアクセスを避け、ローカルネットワーク環境でのオープンソースLLMのデプロイと利用を必要としている。
本研究では,LLMを用いた生成IoT(Generative IoT)システムを提案する。
論文 参考訳(メタデータ) (2024-06-14T19:24:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。