論文の概要: Contrastive Self-Supervised Learning at the Edge: An Energy Perspective
- arxiv url: http://arxiv.org/abs/2510.08374v1
- Date: Thu, 09 Oct 2025 15:57:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:15.177761
- Title: Contrastive Self-Supervised Learning at the Edge: An Energy Perspective
- Title(参考訳): エッジでのコントラスト的自己監督学習:エネルギー的視点
- Authors: Fernanda Famá, Roberto Pereira, Charalampos Kalalas, Paolo Dini, Lorena Qendro, Fahim Kawsar, Mohammad Malekzadeh,
- Abstract要約: 我々は,SimCLR,MoCo,SimSiam,Barlow Twinsの4つのコントラスト学習フレームワークの評価を行った。
我々は,これらのCLフレームワークのエッジおよびフォグ展開の実現可能性に注目し,体系的なベンチマーク戦略を導入する。
この結果,SimCLRは計算コストの認識に反し,様々なデータ体制における省エネ効果を実証していることがわかった。
- 参考スコア(独自算出の注目度): 47.71700347940481
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While contrastive learning (CL) shows considerable promise in self-supervised representation learning, its deployment on resource-constrained devices remains largely underexplored. The substantial computational demands required for training conventional CL frameworks pose a set of challenges, particularly in terms of energy consumption, data availability, and memory usage. We conduct an evaluation of four widely used CL frameworks: SimCLR, MoCo, SimSiam, and Barlow Twins. We focus on the practical feasibility of these CL frameworks for edge and fog deployment, and introduce a systematic benchmarking strategy that includes energy profiling and reduced training data conditions. Our findings reveal that SimCLR, contrary to its perceived computational cost, demonstrates the lowest energy consumption across various data regimes. Finally, we also extend our analysis by evaluating lightweight neural architectures when paired with CL frameworks. Our study aims to provide insights into the resource implications of deploying CL in edge/fog environments with limited processing capabilities and opens several research directions for its future optimization.
- Abstract(参考訳): コントラスト学習(CL)は自己指導型表現学習においてかなりの可能性を秘めているが、リソース制約されたデバイスへの展開は未探索のままである。
従来のCLフレームワークのトレーニングに必要な計算上の要求は、特にエネルギー消費、データ可用性、メモリ使用量の観点から、一連の課題をもたらす。
我々はSimCLR、MoCo、SimSiam、Barlow Twinsの4つの広く使われているCLフレームワークの評価を行う。
我々は,これらのCLフレームワークのエッジおよびフォグ展開の実現可能性に注目し,エネルギープロファイリングとトレーニングデータ条件の低減を含む,系統的なベンチマーク戦略を導入する。
この結果,SimCLRは計算コストの認識に反し,様々なデータ体制における省エネ効果を実証していることがわかった。
最後に、CLフレームワークと組み合わせることで、軽量なニューラルアーキテクチャを評価することで分析を拡張します。
本研究の目的は,処理能力に制限のあるエッジ/フォグ環境にCLをデプロイする際のリソースへの影響について考察し,今後の最適化に向けたいくつかの研究の方向性を明らかにすることである。
関連論文リスト
- Self-Supervised Learning at the Edge: The Cost of Labeling [41.11831047923664]
従来の教師付き機械学習ソリューションに代わるものとして、コントラスト学習(CL)が登場した。
エッジベースの学習のためのSsl技術は、モデル性能とエネルギー効率のトレードオフに焦点を当てている。
最適化されたSSL戦略は、最大4倍のリソース消費を削減しながら、競争性能を達成することができることを実証する。
論文 参考訳(メタデータ) (2025-07-09T17:03:50Z) - Illusion or Algorithm? Investigating Memorization, Emergence, and Symbolic Processing in In-Context Learning [50.53703102032562]
大規模トランスフォーマー言語モデル(LM)は、Webスケールデータによる次世代の予測のみを訓練することで、幅広いタスクを解決できる。
この能力の背後にあるメカニズムは、ICL(In-context Learning)と呼ばれ、議論の余地があり、理解が不十分なままである。
論文 参考訳(メタデータ) (2025-05-16T08:50:42Z) - Continual Learning with Neuromorphic Computing: Foundations, Methods, and Emerging Applications [5.213243471774097]
スパイキングニューラルネットワーク(SNN)の原理を活用したニューロモルフィック連続学習(NCL)が出現する。
本調査では,教師付き学習パラダイムと教師なし学習パラダイムを組み合わせたハイブリッドアプローチについて紹介する。
また、SNN操作の削減、重量量子化、知識蒸留といった最適化手法についても触れている。
論文 参考訳(メタデータ) (2024-10-11T19:49:53Z) - Theory on Mixture-of-Experts in Continual Learning [72.42497633220547]
継続学習(CL)は、時間とともに現れる新しいタスクに適応する能力のため、大きな注目を集めている。
モデルが新しいタスクに適応するにつれて、(古いタスクの)破滅的な忘れがCLの大きな問題として認識されるようになった。
MoEモデルは近年,ゲーティングネットワークを用いることで,CLの破滅的忘れを効果的に軽減することが示されている。
論文 参考訳(メタデータ) (2024-06-24T08:29:58Z) - Data Poisoning for In-context Learning [49.77204165250528]
In-context Learning (ICL)は、新しいタスクに適応する革新的な能力として認識されている。
本論文は、ICLのデータ中毒に対する感受性の重大な問題について述べる。
ICLの学習メカニズムを活用するために考案された特殊攻撃フレームワークであるICLPoisonを紹介する。
論文 参考訳(メタデータ) (2024-02-03T14:20:20Z) - Analysis of the Memorization and Generalization Capabilities of AI
Agents: Are Continual Learners Robust? [91.682459306359]
連続学習(CL)では、AIエージェントが動的環境下で非定常データストリームから学習する。
本稿では,過去の知識を維持しつつ,動的環境への堅牢な一般化を実現するための新しいCLフレームワークを提案する。
提案フレームワークの一般化と記憶性能を理論的に解析した。
論文 参考訳(メタデータ) (2023-09-18T21:00:01Z) - From MNIST to ImageNet and Back: Benchmarking Continual Curriculum
Learning [9.104068727716294]
継続学習(CL)は、機械学習研究で最も有望なトレンドの1つである。
6つの画像データセットから複数の異種タスクを含む2つの新しいCLベンチマークを導入する。
さらに、タスクが複雑化と減少の順序で表されるように、ベンチマークを構造化します。
論文 参考訳(メタデータ) (2023-03-16T18:11:19Z) - Self-adversarial Multi-scale Contrastive Learning for Semantic
Segmentation of Thermal Facial Images [11.68189195596647]
本稿では,セグメンテーションネットワークを学習するための汎用学習フレームワークとして,自己適応型マルチスケールコントラスト学習(SAM-CL)を提案する。
SAM-CLフレームワークはSAM-CL損失関数と熱画像拡張(TiAug)をドメイン固有の拡張技術として構成し、制約のない設定をシミュレートする。
論文 参考訳(メタデータ) (2022-09-21T22:58:47Z) - Using Representation Expressiveness and Learnability to Evaluate
Self-Supervised Learning Methods [61.49061000562676]
本稿では,学習可能性を評価するためにCluster Learnability (CL)を導入する。
CLは、K-meansで表現をクラスタリングすることによって得られたラベルを予測するために訓練されたKNNのパフォーマンスで測定される。
CLは、他の競合する評価手法よりも分布内モデルの性能と相関することがわかった。
論文 参考訳(メタデータ) (2022-06-02T19:05:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。