論文の概要: Contrastive Self-Supervised Learning at the Edge: An Energy Perspective
- arxiv url: http://arxiv.org/abs/2510.08374v1
- Date: Thu, 09 Oct 2025 15:57:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:15.177761
- Title: Contrastive Self-Supervised Learning at the Edge: An Energy Perspective
- Title(参考訳): エッジでのコントラスト的自己監督学習:エネルギー的視点
- Authors: Fernanda Famá, Roberto Pereira, Charalampos Kalalas, Paolo Dini, Lorena Qendro, Fahim Kawsar, Mohammad Malekzadeh,
- Abstract要約: 我々は,SimCLR,MoCo,SimSiam,Barlow Twinsの4つのコントラスト学習フレームワークの評価を行った。
我々は,これらのCLフレームワークのエッジおよびフォグ展開の実現可能性に注目し,体系的なベンチマーク戦略を導入する。
この結果,SimCLRは計算コストの認識に反し,様々なデータ体制における省エネ効果を実証していることがわかった。
- 参考スコア(独自算出の注目度): 47.71700347940481
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While contrastive learning (CL) shows considerable promise in self-supervised representation learning, its deployment on resource-constrained devices remains largely underexplored. The substantial computational demands required for training conventional CL frameworks pose a set of challenges, particularly in terms of energy consumption, data availability, and memory usage. We conduct an evaluation of four widely used CL frameworks: SimCLR, MoCo, SimSiam, and Barlow Twins. We focus on the practical feasibility of these CL frameworks for edge and fog deployment, and introduce a systematic benchmarking strategy that includes energy profiling and reduced training data conditions. Our findings reveal that SimCLR, contrary to its perceived computational cost, demonstrates the lowest energy consumption across various data regimes. Finally, we also extend our analysis by evaluating lightweight neural architectures when paired with CL frameworks. Our study aims to provide insights into the resource implications of deploying CL in edge/fog environments with limited processing capabilities and opens several research directions for its future optimization.
- Abstract(参考訳): コントラスト学習(CL)は自己指導型表現学習においてかなりの可能性を秘めているが、リソース制約されたデバイスへの展開は未探索のままである。
従来のCLフレームワークのトレーニングに必要な計算上の要求は、特にエネルギー消費、データ可用性、メモリ使用量の観点から、一連の課題をもたらす。
我々はSimCLR、MoCo、SimSiam、Barlow Twinsの4つの広く使われているCLフレームワークの評価を行う。
我々は,これらのCLフレームワークのエッジおよびフォグ展開の実現可能性に注目し,エネルギープロファイリングとトレーニングデータ条件の低減を含む,系統的なベンチマーク戦略を導入する。
この結果,SimCLRは計算コストの認識に反し,様々なデータ体制における省エネ効果を実証していることがわかった。
最後に、CLフレームワークと組み合わせることで、軽量なニューラルアーキテクチャを評価することで分析を拡張します。
本研究の目的は,処理能力に制限のあるエッジ/フォグ環境にCLをデプロイする際のリソースへの影響について考察し,今後の最適化に向けたいくつかの研究の方向性を明らかにすることである。
関連論文リスト
- Self-Supervised Learning at the Edge: The Cost of Labeling [41.11831047923664]
従来の教師付き機械学習ソリューションに代わるものとして、コントラスト学習(CL)が登場した。
エッジベースの学習のためのSsl技術は、モデル性能とエネルギー効率のトレードオフに焦点を当てている。
最適化されたSSL戦略は、最大4倍のリソース消費を削減しながら、競争性能を達成することができることを実証する。
論文 参考訳(メタデータ) (2025-07-09T17:03:50Z) - Data Poisoning for In-context Learning [49.77204165250528]
In-context Learning (ICL)は、新しいタスクに適応する革新的な能力として認識されている。
本論文は、ICLのデータ中毒に対する感受性の重大な問題について述べる。
ICLの学習メカニズムを活用するために考案された特殊攻撃フレームワークであるICLPoisonを紹介する。
論文 参考訳(メタデータ) (2024-02-03T14:20:20Z) - Analysis of the Memorization and Generalization Capabilities of AI
Agents: Are Continual Learners Robust? [91.682459306359]
連続学習(CL)では、AIエージェントが動的環境下で非定常データストリームから学習する。
本稿では,過去の知識を維持しつつ,動的環境への堅牢な一般化を実現するための新しいCLフレームワークを提案する。
提案フレームワークの一般化と記憶性能を理論的に解析した。
論文 参考訳(メタデータ) (2023-09-18T21:00:01Z) - From MNIST to ImageNet and Back: Benchmarking Continual Curriculum
Learning [9.104068727716294]
継続学習(CL)は、機械学習研究で最も有望なトレンドの1つである。
6つの画像データセットから複数の異種タスクを含む2つの新しいCLベンチマークを導入する。
さらに、タスクが複雑化と減少の順序で表されるように、ベンチマークを構造化します。
論文 参考訳(メタデータ) (2023-03-16T18:11:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。