論文の概要: Tiny, Hardware-Independent, Compression-based Classification
- arxiv url: http://arxiv.org/abs/2603.06359v1
- Date: Fri, 06 Mar 2026 15:10:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-09 13:17:46.013478
- Title: Tiny, Hardware-Independent, Compression-based Classification
- Title(参考訳): 簡潔でハードウェアに依存しない圧縮に基づく分類
- Authors: Charles Meyers, Aaron MacSween, Erik Elmroth, Tommy Löfstedt,
- Abstract要約: 機械学習の最近の進歩は、プライバシーの観点からオンラインプラットフォームとユーザ間の対立を浮き彫りにした。
最先端の機械学習手法は大量のラベル付きユーザーデータを必要とするため、クライアント側にあるモデルには適さない。
最近の代替手法は、多種多様なデータにわたる分類タスクにおいて顕著に成功した。
- 参考スコア(独自算出の注目度): 0.5599792629509228
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The recent developments in machine learning have highlighted a conflict between online platforms and their users in terms of privacy. The importance of user privacy and the struggle for power over user data has been intensified as regulators and operators attempt to police online platforms. As users have become increasingly aware of privacy issues, client-side data storage, management, and analysis have become a favoured approach to large-scale centralised machine learning. However, state-of-the-art machine learning methods require vast amounts of labelled user data, making them unsuitable for models that reside client-side and only have access to a single user's data. State-of-the-art methods are also computationally expensive, which degrades the user experience on compute-limited hardware and also reduces battery life. A recent alternative approach has proven remarkably successful in classification tasks across a wide variety of data -- using a compression-based distance measure (called normalised compression distance) to measure the distance between generic objects in classical distance-based machine learning methods. In this work, we demonstrate that the normalised compression distance is actually not a metric; develop it for the wider context of kernel methods to allow modelling of complex data; and present techniques to improve the training time of models that use this distance measure. We demonstrate that the normalised compression distance works as well as and sometimes better than other metrics and kernels -- while requiring only marginally more computational costs and in spite of the lack of formal metric properties. The end results is a simple model with remarkable accuracy even when trained on a very small number of samples allowing for models that are small and effective enough to run entirely on a client device using only user-supplied data.
- Abstract(参考訳): 機械学習の最近の進歩は、プライバシーの観点からオンラインプラットフォームとユーザ間の対立を浮き彫りにした。
ユーザープライバシの重要性とユーザデータに対する権力闘争は、規制当局やオペレーターがオンラインプラットフォームを警察しようとする中で、ますます強まりつつある。
ユーザのプライバシー問題に対する意識が高まるにつれて、クライアント側のデータストレージ、管理、分析は、大規模な集中型機械学習に対する好まれるアプローチになりつつある。
しかし、最先端の機械学習手法は大量のラベル付きユーザーデータを必要とするため、クライアント側にあり、単一のユーザーのデータしかアクセスできないモデルには適さない。
State-of-the-artメソッドは計算コストも高く、計算に制限のあるハードウェア上でのユーザエクスペリエンスを低下させ、バッテリー寿命を短縮する。
圧縮ベース距離測定(正規化圧縮距離と呼ばれる)を使用して、古典的な距離ベース機械学習手法におけるジェネリックオブジェクト間の距離を測定する。
本研究は,正規化圧縮距離が実際にはメートル法ではないことを実証し,複素データのモデリングを可能にするカーネル手法のより広い文脈で開発し,この距離測定を用いたモデルのトレーニング時間を改善する手法を提案する。
正規化された圧縮距離は他のメトリクスやカーネルよりもうまく機能するが、計算コストは極端に多く、公式な計量特性が欠如している。
最終的な結果は、ごく少数のサンプルでトレーニングされた場合でも、ユーザ供給データのみを使用してクライアントデバイス上で完全に実行可能な、非常に小さく効果的なモデルであっても、驚くほど精度の高い単純なモデルである。
関連論文リスト
- Decentralized Privacy-Preserving Federal Learning of Computer Vision Models on Edge Devices [0.0]
機械学習モデルの協調トレーニングには、機密データやプライベートデータを共有するリスクが伴う。
フェデレーション学習は、クライアントデータを共有することなく、単一のグローバルモデルを集合的にトレーニングする方法を提供する。
分類に用いる畳み込みニューラルネットワークの精度に及ぼす勾配圧縮と勾配雑音の負の効果を解析した。
論文 参考訳(メタデータ) (2026-01-08T13:10:33Z) - Federated Face Forgery Detection Learning with Personalized Representation [63.90408023506508]
ディープジェネレータ技術は、区別がつかない高品質のフェイクビデオを制作し、深刻な社会的脅威をもたらす可能性がある。
従来の偽造検出手法は、データを直接集中的に訓練する。
本稿では,個人化表現を用いた新しいフェデレーション顔偽造検出学習を提案する。
論文 参考訳(メタデータ) (2024-06-17T02:20:30Z) - Federating Dynamic Models using Early-Exit Architectures for Automatic Speech Recognition on Heterogeneous Clients [12.008071873475169]
フェデレートラーニング(Federated Learning)とは、異なるクライアント上でデータをローカルに保ちながら、共有予測モデルを共同で学習するテクニックである。
本稿では, 早期解を用いた動的アーキテクチャを用いて, 入力や動作条件に応じて, その処理を適応させることができることを提案する。
このソリューションは、部分的なトレーニングメソッドの領域に該当し、2つのメリットをもたらす。
論文 参考訳(メタデータ) (2024-05-27T17:32:37Z) - Towards a Better Theoretical Understanding of Independent Subnetwork Training [56.24689348875711]
独立サブネットワークトレーニング(IST)の理論的考察
ISTは、上記の問題を解決するための、最近提案され、非常に効果的である。
圧縮通信を用いた分散手法など,ISTと代替手法の基本的な違いを同定する。
論文 参考訳(メタデータ) (2023-06-28T18:14:22Z) - Canary in a Coalmine: Better Membership Inference with Ensembled
Adversarial Queries [53.222218035435006]
私たちは、差別的で多様なクエリを最適化するために、逆ツールを使用します。
我々の改善は既存の方法よりもはるかに正確な会員推定を実現している。
論文 参考訳(メタデータ) (2022-10-19T17:46:50Z) - Federated Pruning: Improving Neural Network Efficiency with Federated
Learning [24.36174705715827]
フェデレーテッド・プルーニング(Federated Pruning)は、フェデレーテッド・セッティングの下で縮小モデルのトレーニングを行う。
異なる刈り取り方式を探索し,提案手法の有効性の実証的証拠を提供する。
論文 参考訳(メタデータ) (2022-09-14T00:48:37Z) - Incremental Online Learning Algorithms Comparison for Gesture and Visual
Smart Sensors [68.8204255655161]
本稿では,加速度センサデータに基づくジェスチャー認識と画像分類の2つの実例として,最先端の4つのアルゴリズムを比較した。
以上の結果から,これらのシステムの信頼性と小型メモリMCUへのデプロイの可能性が確認された。
論文 参考訳(メタデータ) (2022-09-01T17:05:20Z) - Federated Split GANs [12.007429155505767]
ユーザデバイス自体でMLモデルをトレーニングするための代替手法を提案する。
我々は、GAN(ジェネレーティブ・逆境ネットワーク)に注目し、その固有のプライバシー保護属性を活用する。
我々のシステムはデータのプライバシを保ち、短時間のトレーニング時間を保ち、制約のないデバイスで同じ精度でモデルトレーニングを行う。
論文 参考訳(メタデータ) (2022-07-04T23:53:47Z) - Federated Multi-Target Domain Adaptation [99.93375364579484]
フェデレートされた学習手法により、プライバシを保護しながら、分散ユーザデータ上で機械学習モデルをトレーニングすることが可能になります。
分散クライアントデータがラベル付けされず、集中型ラベル付きデータセットがサーバ上で利用可能となる、より実用的なシナリオを考えます。
本稿では,新しい課題に対処する効果的なDualAdapt法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:53:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。