論文の概要: PLUME: Building a Network-Native Foundation Model for Wireless Traces via Protocol-Aware Tokenization
- arxiv url: http://arxiv.org/abs/2603.13647v1
- Date: Fri, 13 Mar 2026 23:14:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:35.313104
- Title: PLUME: Building a Network-Native Foundation Model for Wireless Traces via Protocol-Aware Tokenization
- Title(参考訳): PLUME:プロトコル対応トークン化による無線トレースのためのネットワークNative Foundationモデルの構築
- Authors: Swadhin Pradhan, Shazal Irshad, Jerome Henry,
- Abstract要約: Plumeは、構造化PDML切断から学ぶ802.11トレースのコンパクト基盤モデルである。
プロトコル対応トークン化器は、ディセクタフィールドツリーに沿って分割し、タイミングのギャップトークンを出力し、識別子を正規化し、BPEよりも6.2倍短いシーケンスを生成する。
- 参考スコア(独自算出の注目度): 0.9558392439655014
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Foundation models succeed when they learn in the native structure of a modality, whether morphology-respecting tokens in language or pixels in vision. Wireless packet traces deserve the same treatment: meaning emerges from layered headers, typed fields, timing gaps, and cross-packet state machines, not flat strings. We present Plume (Protocol Language Understanding Model for Exchanges), a compact 140M-parameter foundation model for 802.11 traces that learns from structured PDML dissections. A protocol-aware tokenizer splits along the dissector field tree, emits gap tokens for timing, and normalizes identifiers, yielding 6.2x shorter sequences than BPE with higher per token information density. Trained on a curated corpus, Plume achieves 74-97% next-packet token accuracy across five real-world failure categories and AUROC >= 0.99 for zero-shot anomaly detection. On the same prediction task, frontier LLMs (Claude Opus 4.6, GPT-5.4) score comparably despite receiving identical protocol context, yet Plume does so with > 600x fewer parameters, fitting on a single GPU at effectively zero marginal cost vs. cloud API pricing, enabling on-prem, privacy-preserving root cause analysis.
- Abstract(参考訳): 基礎モデルは、モダリティのネイティブ構造を学ぶ際に成功し、言語における形態素参照トークンや視覚におけるピクセルのいずれでも成功する。
ワイヤレスパケットトレースは、フラットな文字列ではなく、階層化されたヘッダ、型付きフィールド、タイミングギャップ、およびパッケージ間状態マシンから現れる。
本稿では,構造化PDML切断から学習した802.11トレースに対するコンパクトな140Mパラメータ基盤モデルであるPlume(Protocol Language Understanding Model for Exchanges)を提案する。
プロトコル対応トークンライザは、ディスセクタフィールドツリーに沿って分割し、タイミングのギャップトークンを出力し、識別子を正規化し、トークン情報密度が高いBPEよりも6.2倍短いシーケンスを生成する。
キュレートされたコーパスでトレーニングされたPlumeは、5つの現実世界の障害カテゴリで74-97%の次パッケージトークンの精度を達成し、AUROC >= 0.99 でゼロショット異常検出を行う。
同じ予測タスクでは、同じプロトコルコンテキストを受信しているにもかかわらず、フロンティアのLSM(Claude Opus 4.6, GPT-5.4)スコアは相容れないが、Plumeは600倍少ないパラメータで、単一のGPUに効果的に限界コストをゼロに設定し、クラウドAPIの価格に適合し、オンプレミスでプライバシ保護された根本原因分析を可能にする。
関連論文リスト
- Interpretable Chinese Metaphor Identification via LLM-Assisted MIPVU Rule Script Generation: A Comparative Protocol Study [1.482489178857542]
4つの比喩識別プロトコルを運用するLLM支援パイプラインを提案する。
各プロトコルは、制御されたLLM呼び出しにインターリーブされた決定論的ステップのモジュラーチェーンである。
トークン、文、およびスパンレベルのアノテーションにまたがる7つの中国語メタファーデータセットを評価する。
論文 参考訳(メタデータ) (2026-03-11T13:55:34Z) - MCP-Diag: A Deterministic, Protocol-Driven Architecture for AI-Native Network Diagnostics [0.08921166277011344]
本稿では,モデルコンテキストプロトコル(MCP)上に構築されたハイブリッド型ニューロシンボリックアーキテクチャであるMCP-Diagを紹介する。
本稿では,AI導入前の標準ユーティリティ(dig,ping,tratraroute)から厳密なスキーマに変換する決定論的翻訳層を提案する。
また,プロトコルレベルでのHuman-in-the-Loop(HITL)認証を強制する「Elicitation Loop」も導入する。
論文 参考訳(メタデータ) (2026-01-30T06:49:25Z) - Structurally Human, Semantically Biased: Detecting LLM-Generated References with Embeddings and GNNs [7.158582263989492]
我々は、SciSciNetから1万の論文に対して、ペア化された引用グラフ、基底真理、GPT-4o生成(パラメトリック知識から)を構築した。
GPTは、ランダムなベースラインをきれいに拒否するにもかかわらず、地上の真理(RF精度$approx$0.60)とほとんど区別されないことを示す。
集約された埋め込み上のRFは$approx$ 0.83に達し、埋め込みノード機能を持つGNNはGPTと地上真実の93%のテスト精度を達成する。
論文 参考訳(メタデータ) (2026-01-28T15:37:31Z) - DNATokenizer: A GPU-First Byte-to-Identifier Tokenizer for High-Throughput DNA Language Models [0.0]
DNATokはGPUファーストのトークン化システムで、汎用文字列処理をバイトルックアップテーブル(LUT)ベースの識別子ストリーミングと、重複したホスト・ツー・デバイス(H2D)/計算パイプラインに置き換える。
DNATokは最適化されたHugging Faceベースラインよりも84-95倍高いエンコーディングスループットを実現し、最大1.9倍高いH2Dスループットを実現している。
論文 参考訳(メタデータ) (2026-01-09T05:08:17Z) - PromptPort: A Reliability Layer for Cross-Model Structured Extraction [0.11280931253550518]
LLMによる構造化抽出は、モデルが理解できないためではなく、出力フォーマットがモデルやプロンプト間で信頼できないため、本番環境では失敗する。
本稿では,決定論的正準化と軽量検証器(DistilBERT)と安全オーバライドポリシを組み合わせた信頼性層であるPromptPortを提案する。
この方法は、保留モデルファミリに一般化し、不確実な場合には明示的な棄権を与え、プロダクションデプロイメントにおける信頼性の高い構造化抽出を可能にする。
論文 参考訳(メタデータ) (2026-01-06T03:54:27Z) - REAR: Rethinking Visual Autoregressive Models via Generator-Tokenizer Consistency Regularization [130.46612643194973]
reARはトークン単位の正規化目標を導入する単純なトレーニング戦略です。
ImageNetでは、gFIDを3.02から1.86に削減し、標準化ベースのトークンーザを使用してISを316.9に改善している。
高度なトークン化器に適用すると、177Mパラメータしか持たない1.42のgFIDが達成され、その性能はより大きな最先端拡散モデル(675M)と一致する。
論文 参考訳(メタデータ) (2025-10-06T02:48:13Z) - Telling Left from Right: Identifying Geometry-Aware Semantic Correspondence [80.6840060272386]
本稿では,意味的対応のための幾何学的認識の重要性を明らかにする。
この情報を活用することで,意味的対応性能が著しく向上することを示す。
提案手法は,SPair-71kデータセット上で,65.4(ゼロショット)と85.6(教師)のPCK@0.10スコアを達成する。
論文 参考訳(メタデータ) (2023-11-28T18:45:13Z) - Retrosynthetic Planning with Dual Value Networks [107.97218669277913]
我々は、PDVN(Planning with Dual Value Networks)と呼ばれる新しいオンライントレーニングアルゴリズムを提案する。
PDVNは計画段階と更新段階を交互に行い、分子の合成性とコストを予測する。
広く使われているUSPTOデータセットでは、PDVNアルゴリズムが既存のマルチステッププランナの探索成功率を改善する。
論文 参考訳(メタデータ) (2023-01-31T16:43:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。