論文の概要: CALTeC: Content-Adaptive Linear Tensor Completion for Collaborative
Intelligence
- arxiv url: http://arxiv.org/abs/2106.05531v1
- Date: Thu, 10 Jun 2021 06:45:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-12 19:31:13.219549
- Title: CALTeC: Content-Adaptive Linear Tensor Completion for Collaborative
Intelligence
- Title(参考訳): CALTeC:コラボレーションインテリジェンスのためのコンテンツ適応線形テンソル補完
- Authors: Ashiv Dhondea, Robert A. Cohen, Ivan V. Baji\'c
- Abstract要約: 本稿では,CALTeC (Content-Adaptive Linear Completion) という手法を提案する。
提案手法は高速でデータ適応的であり,事前学習を必要としない。
- 参考スコア(独自算出の注目度): 24.192504570921624
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In collaborative intelligence, an artificial intelligence (AI) model is
typically split between an edge device and the cloud. Feature tensors produced
by the edge sub-model are sent to the cloud via an imperfect communication
channel. At the cloud side, parts of the feature tensor may be missing due to
packet loss. In this paper we propose a method called Content-Adaptive Linear
Tensor Completion (CALTeC) to recover the missing feature data. The proposed
method is fast, data-adaptive, does not require pre-training, and produces
better results than existing methods for tensor data recovery in collaborative
intelligence.
- Abstract(参考訳): コラボレーティブインテリジェンスでは、人工知能(AI)モデルは通常、エッジデバイスとクラウドの間で分割される。
エッジサブモデルによって生成された特徴テンソルは、不完全な通信チャネルを介してクラウドに送られる。
クラウド側では、パケット損失のために機能テンソルの一部が失われる可能性がある。
本稿では,不足する特徴データを復元するために,コンテンツ適応線形テンソル補完(caltec)と呼ばれる手法を提案する。
提案手法は高速でデータ適応性があり,事前学習を必要としない。
関連論文リスト
- Representation Similarity: A Better Guidance of DNN Layer Sharing for Edge Computing without Training [3.792729116385123]
本稿では,表現類似度Sで導かれる表現をエッジで共有することで,新しいモデルマージ方式を提案する。
Pearson correlation Coefficient |r| > 0.94 than other metrics。
論文 参考訳(メタデータ) (2024-10-15T03:35:54Z) - RanPAC: Random Projections and Pre-trained Models for Continual Learning [59.07316955610658]
継続学習(CL)は、古いタスクを忘れずに、非定常データストリームで異なるタスク(分類など)を学習することを目的としている。
本稿では,事前学習モデルを用いたCLの簡潔かつ効果的なアプローチを提案する。
論文 参考訳(メタデータ) (2023-07-05T12:49:02Z) - Towards a Better Theoretical Understanding of Independent Subnetwork Training [56.24689348875711]
独立サブネットワークトレーニング(IST)の理論的考察
ISTは、上記の問題を解決するための、最近提案され、非常に効果的である。
圧縮通信を用いた分散手法など,ISTと代替手法の基本的な違いを同定する。
論文 参考訳(メタデータ) (2023-06-28T18:14:22Z) - An Efficient Split Fine-tuning Framework for Edge and Cloud
Collaborative Learning [20.118073642453034]
エッジおよびクラウド協調学習のための効率的な分割微調整フレームワークを設計する。
ニューラルネットワークの中間出力を圧縮し、エッジデバイスとクラウドサーバ間の通信量を削減する。
我々のフレームワークは、モデルの精度にほとんど影響を与えずに、96倍の通信トラフィックを削減できる。
論文 参考訳(メタデータ) (2022-11-30T02:55:21Z) - Data Augmentation-free Unsupervised Learning for 3D Point Cloud
Understanding [61.30276576646909]
ソフトクラスタリング(SoftClu)と呼ばれる,移動可能な点レベルの特徴を学習するための,ポイントクラウドに対する拡張不要な教師なしアプローチを提案する。
我々は,クラスタに対するポイントのアフィリエイトをプロキシとして利用し,擬似ラベル予測タスクを通じて自己学習を可能にする。
論文 参考訳(メタデータ) (2022-10-06T10:18:16Z) - Few-Shot Non-Parametric Learning with Deep Latent Variable Model [50.746273235463754]
遅延変数を用いた圧縮による非パラメトリック学習(NPC-LV)を提案する。
NPC-LVは、ラベルなしデータが多いがラベル付きデータはほとんどないデータセットの学習フレームワークである。
我々は,NPC-LVが低データ構造における画像分類における3つのデータセットの教師あり手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-06-23T09:35:03Z) - CAFA: Class-Aware Feature Alignment for Test-Time Adaptation [50.26963784271912]
テスト時間適応(TTA)は、テスト時にラベルのないデータにモデルを適応させることによって、この問題に対処することを目的としている。
本稿では,クラス認識特徴アライメント(CAFA, Class-Aware Feature Alignment)と呼ばれる単純な機能アライメント損失を提案する。
論文 参考訳(メタデータ) (2022-06-01T03:02:07Z) - Complexity-aware Adaptive Training and Inference for Edge-Cloud
Distributed AI Systems [9.273593723275544]
IoTおよび機械学習アプリケーションは、リアルタイム処理を必要とする大量のデータを生成する。
我々は、エッジとクラウドの両方を利用してトレーニングと推論を行う分散AIシステムを提案する。
論文 参考訳(メタデータ) (2021-09-14T05:03:54Z) - Error Resilient Collaborative Intelligence via Low-Rank Tensor
Completion [26.24508656138528]
ディープニューラルネットワーク(DNN)に基づいたアプリケーションを実行するエッジデバイス上での計算負荷を軽くする手段として、コラボレーションインテリジェンス(Collaborative Intelligence)が登場した。
本研究では,4つの低ランクテンソル補修法の有効性について検討した。
論文 参考訳(メタデータ) (2021-05-20T16:47:25Z) - Robustness to Missing Features using Hierarchical Clustering with Split
Neural Networks [39.29536042476913]
階層的クラスタリングを用いて類似の入力特徴をクラスタリングする,単純かつ効果的な手法を提案する。
本手法を一連のベンチマークデータセット上で評価し,単純な計算手法を用いても有望な改善を示す。
論文 参考訳(メタデータ) (2020-11-19T00:35:08Z) - Training Recommender Systems at Scale: Communication-Efficient Model and
Data Parallelism [56.78673028601739]
通信効率のよいハイブリッドトレーニングのためのDCT(Dynamic Communication Thresholding)という圧縮フレームワークを提案する。
DCTは、それぞれDPとMPの間に、少なくとも$100times$と$20times$の通信を削減します。
最先端の産業レコメンデーションモデルのエンドツーエンドのトレーニング時間を、パフォーマンスを損なうことなく、37%改善する。
論文 参考訳(メタデータ) (2020-10-18T01:44:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。