論文の概要: Learning More with Less: A Generalizable, Self-Supervised Framework for Privacy-Preserving Capacity Estimation with EV Charging Data
- arxiv url: http://arxiv.org/abs/2510.05172v1
- Date: Sun, 05 Oct 2025 08:58:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-08 17:57:07.884377
- Title: Learning More with Less: A Generalizable, Self-Supervised Framework for Privacy-Preserving Capacity Estimation with EV Charging Data
- Title(参考訳): 最小限の学習:EV充電データによるプライバシー保護能力推定のための汎用的で自己監視型フレームワーク
- Authors: Anushiya Arunan, Yan Qin, Xiaoli Li, U-Xuan Tan, H. Vincent Poor, Chau Yuen,
- Abstract要約: 自己教師付き事前学習に基づく第一種能力推定モデルを提案する。
我々のモデルは一貫して最先端のベースラインを上回っている。
- 参考スコア(独自算出の注目度): 84.37348569981307
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Accurate battery capacity estimation is key to alleviating consumer concerns about battery performance and reliability of electric vehicles (EVs). However, practical data limitations imposed by stringent privacy regulations and labeled data shortages hamper the development of generalizable capacity estimation models that remain robust to real-world data distribution shifts. While self-supervised learning can leverage unlabeled data, existing techniques are not particularly designed to learn effectively from challenging field data -- let alone from privacy-friendly data, which are often less feature-rich and noisier. In this work, we propose a first-of-its-kind capacity estimation model based on self-supervised pre-training, developed on a large-scale dataset of privacy-friendly charging data snippets from real-world EV operations. Our pre-training framework, snippet similarity-weighted masked input reconstruction, is designed to learn rich, generalizable representations even from less feature-rich and fragmented privacy-friendly data. Our key innovation lies in harnessing contrastive learning to first capture high-level similarities among fragmented snippets that otherwise lack meaningful context. With our snippet-wise contrastive learning and subsequent similarity-weighted masked reconstruction, we are able to learn rich representations of both granular charging patterns within individual snippets and high-level associative relationships across different snippets. Bolstered by this rich representation learning, our model consistently outperforms state-of-the-art baselines, achieving 31.9% lower test error than the best-performing benchmark, even under challenging domain-shifted settings affected by both manufacturer and age-induced distribution shifts.
- Abstract(参考訳): 正確なバッテリ容量推定は、電気自動車(EV)のバッテリ性能と信頼性に関する消費者の懸念を軽減するための鍵となる。
しかし、厳格なプライバシー規制とラベル付きデータ不足によって課される実用的なデータ制限は、現実世界のデータ分散シフトに対して堅牢な一般的なキャパシティ推定モデルの開発を妨げる。
自己教師型学習はラベルのないデータを活用することができるが、既存のテクニックは、特に、問題のあるフィールドデータから効果的に学習するように設計されていない。
本研究では,現実のEV操作から得られた,プライバシーに配慮した充電データスニペットの大規模データセットに基づいて,自己指導型事前学習に基づく第1世代のキャパシティ推定モデルを提案する。
我々の事前学習フレームワークであるスニペット類似のマスク付き入力再構成は、より機能豊かで、断片化されたプライバシフレンドリーなデータからでも、リッチで一般化可能な表現を学ぶように設計されています。
私たちの重要なイノベーションは、対照的な学習を活用して、意味のあるコンテキストを欠く断片化されたスニペットの間で、まず高いレベルの類似性を捉えることです。
スニペット指向のコントラスト学習とそれに続く類似性重み付きマスク再構築により、個々のスニペット内の粒度の充電パターンと、異なるスニペット間の高レベルな連想関係のリッチな表現を学べる。
この豊かな表現学習によって、我々のモデルは一貫して最先端のベースラインを上回り、最高のパフォーマンスベンチマークよりも31.9%低いテストエラーを達成します。
関連論文リスト
- Fairness-Aware Low-Rank Adaptation Under Demographic Privacy Constraints [4.647881572951815]
事前訓練された基礎モデルはローランド適応(LoRA)を用いて特定のタスクに適応することができる
既存のフェアネスを意識した微調整手法は、機密属性や予測器への直接アクセスに依存している。
分散方式でトレーニング可能なLoRAベースの微調整手法のセットを紹介する。
論文 参考訳(メタデータ) (2025-03-07T18:49:57Z) - From Machine Learning to Machine Unlearning: Complying with GDPR's Right to be Forgotten while Maintaining Business Value of Predictive Models [9.380866972744633]
この研究は、Ensemble-based iTerative Information Distillation (ETID)と呼ばれる、総合的な機械学習から学習へのフレームワークを開発する。
ETIDには、データ消去要求の処理を容易にする正確な予測モデルを構築するための、新しいアンサンブル学習手法が組み込まれている。
また, 効率的かつ効率的なデータ消去を実現するために, 構築されたアンサンブルモデルに適した, 蒸留に基づく未学習手法を提案する。
論文 参考訳(メタデータ) (2024-11-26T05:42:46Z) - Fairness without Sensitive Attributes via Knowledge Sharing [13.141672574114597]
本稿では,信頼度に基づく階層型分類手法であるReckonerを提案する。
実験の結果、ReckonerはCompASデータセットとNew Adultデータセットにおいて、最先端のベースラインを一貫して上回っていることがわかった。
論文 参考訳(メタデータ) (2024-09-27T06:16:14Z) - Fantastic Gains and Where to Find Them: On the Existence and Prospect of
General Knowledge Transfer between Any Pretrained Model [74.62272538148245]
事前訓練されたモデルの任意のペアリングに対して、一方のモデルは他方では利用できない重要なデータコンテキストを抽出する。
このような「補的」な知識を,性能劣化を伴わずに,あるモデルから別のモデルへ伝達できるかどうかを検討する。
論文 参考訳(メタデータ) (2023-10-26T17:59:46Z) - Approximate, Adapt, Anonymize (3A): a Framework for Privacy Preserving
Training Data Release for Machine Learning [3.29354893777827]
データリリースフレームワークである3A(Approximate, Adapt, Anonymize)を導入し、機械学習のデータユーティリティを最大化する。
本稿では,実データセットと民生データセットでトレーニングしたモデルの性能指標の相違が最小限に抑えられることを示す実験的な証拠を示す。
論文 参考訳(メタデータ) (2023-07-04T18:37:11Z) - Retrieval-Enhanced Contrastive Vision-Text Models [61.783728119255365]
そこで本研究では,メモリから取得したクロスモーダルな情報を推論時に表現することで,その埋め込みを洗練できる視覚テキストモデルを提案する。
注目すべきことに、これは凍ったCLIPの上に軽量の単層核融合トランスを用いて行うことができる。
検索強化コントラスト訓練(RECO)がCLIPの性能を大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-06-12T15:52:02Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。