論文の概要: TimeSeries2Report prompting enables adaptive large language model management of lithium-ion batteries
- arxiv url: http://arxiv.org/abs/2512.16453v1
- Date: Thu, 18 Dec 2025 12:15:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:32.047743
- Title: TimeSeries2Report prompting enables adaptive large language model management of lithium-ion batteries
- Title(参考訳): TimeSeries2Report promptingはリチウムイオン電池の適応型大規模言語モデル管理を可能にする
- Authors: Jiayang Yang, Chunhui Zhao, Martin Guay, Zhixing Cao,
- Abstract要約: TimeSeries2Report(TS2R)は、リチウムイオン電池の運用時間を構造化し、セマンティックに強化したレポートに変換するプロンプトフレームワークである。
TS2Rは、セグメンテーション、セマンティック抽象化、ルールベースの解釈を組み合わせて、短時間の時間的ダイナミクスを自然言語にエンコードする。
実験室と実世界の両方のデータセットでTS2Rをベンチマークし、異常検出、充電状態予測、充電/放電管理におけるレポート品質とダウンストリームタスクパフォーマンスを評価します。
- 参考スコア(独自算出の注目度): 8.167197553842255
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) offer promising capabilities for interpreting multivariate time-series data, yet their application to real-world battery energy storage system (BESS) operation and maintenance remains largely unexplored. Here, we present TimeSeries2Report (TS2R), a prompting framework that converts raw lithium-ion battery operational time-series into structured, semantically enriched reports, enabling LLMs to reason, predict, and make decisions in BESS management scenarios. TS2R encodes short-term temporal dynamics into natural language through a combination of segmentation, semantic abstraction, and rule-based interpretation, effectively bridging low-level sensor signals with high-level contextual insights. We benchmark TS2R across both lab-scale and real-world datasets, evaluating report quality and downstream task performance in anomaly detection, state-of-charge prediction, and charging/discharging management. Compared with vision-, embedding-, and text-based prompting baselines, report-based prompting via TS2R consistently improves LLM performance in terms of across accuracy, robustness, and explainability metrics. Notably, TS2R-integrated LLMs achieve expert-level decision quality and predictive consistency without retraining or architecture modification, establishing a practical path for adaptive, LLM-driven battery intelligence.
- Abstract(参考訳): 大規模言語モデル(LLM)は、多変量時系列データを解釈する有望な機能を提供するが、実際のバッテリエネルギー貯蔵システム(BESS)の運用やメンテナンスには、ほとんど未検討のままである。
本稿では,原料リチウムイオン電池の運用時間を構造化した,意味豊かなレポートに変換するプロンプトフレームワークであるTimeSeries2Report(TS2R)について述べる。
TS2Rは、セグメンテーション、セマンティック抽象化、ルールベースの解釈を組み合わせることで、短時間の時間的ダイナミクスを自然言語にエンコードし、高レベルの文脈的洞察で効果的に低レベルのセンサー信号をブリッジする。
実験室と実世界の両方のデータセットでTS2Rをベンチマークし、異常検出、充電状態予測、充電/放電管理におけるレポート品質とダウンストリームタスクパフォーマンスを評価します。
視覚、埋め込み、テキストベースのプロンプトのベースラインと比較すると、TS2Rによるレポートベースのプロンプトは、正確性、堅牢性、説明可能性の指標でLLMのパフォーマンスを一貫して改善する。
特に、TS2R 統合 LLM は、再訓練やアーキテクチャの変更なしに、専門家レベルの意思決定品質と予測整合性を達成し、適応的で LLM 駆動のバッテリインテリジェンスのための実践的なパスを確立する。
関連論文リスト
- Grounded Test-Time Adaptation for LLM Agents [75.62784644919803]
大規模言語モデル(LLM)ベースのエージェントは、新規で複雑な環境への一般化に苦慮している。
環境特化情報を活用することで, LLMエージェントを適応するための2つの戦略を提案する。
論文 参考訳(メタデータ) (2025-11-06T22:24:35Z) - CMT-Bench: Cricket Multi-Table Generation Benchmark for Probing Robustness in Large Language Models [11.167804698594866]
我々は,ライブクリケットによる診断ベンチマークであるCMT-Benchを紹介する。
抽出サマリー,入力長による単調な劣化,実体形変化による一貫した精度低下を伴わない大きな滴が見つかる。
論文 参考訳(メタデータ) (2025-10-20T23:51:28Z) - Rethinking Agentic Workflows: Evaluating Inference-Based Test-Time Scaling Strategies in Text2SQL Tasks [21.891522433628893]
大規模言語モデル(LLM)はText-to-(Text2)システムにますます力を入れている。
テストタイムのスケーリング戦略はLLMベースのソリューションでは有望だが、現実のアプリケーション、特に最新の推論モデルでは、その有効性は不確実である。
この作業は、Text2システムをデプロイする際の正確性、効率、複雑さの間の実践的なトレードオフに光を当てています。
論文 参考訳(メタデータ) (2025-10-13T01:29:54Z) - Sample-Efficient Online Learning in LM Agents via Hindsight Trajectory Rewriting [92.57796055887995]
本稿では,言語モデルエージェントの強化学習から後視体験のリプレイに適応するプロンプトフレームワークECHOを紹介する。
ECHOは失敗した試みで達成できた代替目標のために最適化された軌道を生成する。
我々は、テキストベースのナビゲーションと計画ベンチマークであるXMiniGridのステートフルバージョンと、協調的な情報収集企業シミュレーションであるPeopleJoinQAについて、ECHOを評価した。
論文 参考訳(メタデータ) (2025-10-11T18:11:09Z) - StoryBench: A Dynamic Benchmark for Evaluating Long-Term Memory with Multi Turns [7.60350050736492]
長期記憶は、自律的な知性を達成するために、大規模言語モデルにとって不可欠である。
既存のベンチマークでは、知識保持と動的シーケンシャル推論を評価する上で、課題に直面している。
インタラクティブなフィクションゲームに基づく新しいベンチマークフレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-16T10:54:31Z) - Small but Mighty: Enhancing Time Series Forecasting with Lightweight LLMs [11.1036247482657]
本稿では,SMETimesについて述べる。SMETimesは,3B以下のパラメータのSLMを,効率的かつ正確な時系列予測を行うための最初の体系的な研究である。
統計的特徴によって数値時系列をテキスト意味論でブリッジする統計的に強化されたプロンプト機構; 学習可能なパラメータを通して時間パターンと言語モデルトークン空間を整列する適応型融合埋め込みアーキテクチャ。
論文 参考訳(メタデータ) (2025-03-05T15:27:36Z) - R-SFLLM: Jamming Resilient Framework for Split Federated Learning with Large Language Models [65.04475956174959]
Split Federated Learning (SFL)は、分散機械学習(ML)における計算効率のパラダイムである。
SFLにおける重要な課題は、特に無線チャネル上に展開する場合、送信されたモデルパラメータの敵ジャミングに対する感受性である。
本稿では,無線ネットワーク上での大規模言語モデル (LLM) と視覚言語モデル (VLM) を用いたレジリエンスSFLのための物理層フレームワークを開発する。
論文 参考訳(メタデータ) (2024-07-16T12:21:29Z) - Can Long-Context Language Models Subsume Retrieval, RAG, SQL, and More? [54.667202878390526]
長文言語モデル(LCLM)は、従来、検索システムやデータベースといった外部ツールに依存していたタスクへのアプローチに革命をもたらす可能性がある。
実世界のタスクのベンチマークであるLOFTを導入し、文脈内検索と推論においてLCLMの性能を評価するために設計された数百万のトークンを出力する。
以上の結果からLCLMは,これらのタスクを明示的に訓練したことがないにも関わらず,最先端の検索システムやRAGシステムと競合する驚くべき能力を示した。
論文 参考訳(メタデータ) (2024-06-19T00:28:58Z) - Characterization of Large Language Model Development in the Datacenter [55.9909258342639]
大きな言語モデル(LLM)は、いくつかの変換タスクにまたがって素晴らしいパフォーマンスを示している。
しかし,大規模クラスタ資源を効率よく利用してLCMを開発することは容易ではない。
我々は,GPUデータセンタAcmeから収集した6ヶ月のLDM開発ワークロードの詳細な評価を行った。
論文 参考訳(メタデータ) (2024-03-12T13:31:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。