論文の概要: Efficient IoT Inference via Context-Awareness
- arxiv url: http://arxiv.org/abs/2310.19112v1
- Date: Sun, 29 Oct 2023 18:57:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-31 14:08:20.341789
- Title: Efficient IoT Inference via Context-Awareness
- Title(参考訳): コンテキスト認識による効率的なIoT推論
- Authors: Mohammad Mehdi Rastikerdar, Jin Huang, Shiwei Fang, Hui Guan, Deepak
Ganesan
- Abstract要約: 我々は、スケーラブルで効率的な文脈認識分類のための新しいパラダイム、CACTUSを提案する。
CACTUSは、現在のコンテキストに関連するクラスの小さなセットを認識し、コンテキストが変更されると、すぐに他の適切なマイクロ分類器に切り替える。
我々は、CACTUSが、さまざまなデータセットやIoTプラットフォームにわたる正確性、レイテンシ、計算予算において、大きなメリットを達成していることを示す。
- 参考スコア(独自算出の注目度): 8.882680489254923
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While existing strategies for optimizing deep learning-based classification
models on low-power platforms assume the models are trained on all classes of
interest, this paper posits that adopting context-awareness i.e. focusing
solely on the likely classes in the current context, can substantially enhance
performance in resource-constrained environments. We propose a new paradigm,
CACTUS, for scalable and efficient context-aware classification where a
micro-classifier recognizes a small set of classes relevant to the current
context and, when context change happens, rapidly switches to another suitable
micro-classifier. CACTUS has several innovations including optimizing the
training cost of context-aware classifiers, enabling on-the-fly context-aware
switching between classifiers, and selecting the best context-aware classifiers
given limited resources. We show that CACTUS achieves significant benefits in
accuracy, latency, and compute budget across a range of datasets and IoT
platforms.
- Abstract(参考訳): 低消費電力プラットフォーム上での深層学習に基づく分類モデルを最適化するための既存の戦略は、モデルがあらゆる利害関係のクラスで訓練されていることを前提としているが、本稿は、コンテキスト認識の採用、すなわち、現在のコンテキストにおける潜在的クラスに焦点をあてることで、資源制約のある環境での性能を大幅に向上させることができることを示唆している。
そこで我々は,CACTUSという,スケーラブルで効率的なコンテキスト認識型分類のための新しいパラダイムを提案し,マイクロ分類器が現在のコンテキストに関連する少数のクラスを認識し,コンテキストが変化すると,すぐに他の適切なマイクロ分類器に切り替える。
CACTUSは、コンテキスト認識分類器のトレーニングコストの最適化、オンザフライのコンテキスト認識分類器間の切り替え、限られたリソースを与えられた最高のコンテキスト認識分類器の選択など、いくつかのイノベーションを持っている。
我々は、CACTUSが、さまざまなデータセットやIoTプラットフォームにわたる正確性、レイテンシ、計算予算において、大きなメリットを達成していることを示す。
関連論文リスト
- Context-aware Prompt Tuning: Advancing In-Context Learning with Adversarial Methods [69.36397993451742]
In this work introduced Context-aware Prompt Tuning (CPT) - ICL, PT, and adversarial attack。
入力および出力フォーマットのユニークな構造を考慮して、特定のコンテキストトークンを変更する。
敵の攻撃にインスパイアされた我々は、損失を最大化するのではなく、最小化に焦点をあてて、コンテキストに存在するラベルに基づいて入力を調整する。
論文 参考訳(メタデータ) (2024-10-22T17:45:47Z) - Semantic Equitable Clustering: A Simple and Effective Strategy for Clustering Vision Tokens [57.37893387775829]
textbfSemantic textbfEquitable textbfClustering (SEC) という,高速かつバランスの取れたクラスタリング手法を導入する。
SECは、グローバルなセマンティックな関連性に基づいてトークンを効率的かつ直接的な方法でクラスタ化する。
視覚言語コネクタとして機能する汎用視覚バックボーンであるSECViTを提案する。
論文 参考訳(メタデータ) (2024-05-22T04:49:00Z) - AAPL: Adding Attributes to Prompt Learning for Vision-Language Models [6.32186874112557]
本稿では,学習可能なプロンプトのバイアスを誘発する際,高次クラス情報から低次視覚強調特徴を分離するための逆トークン埋め込みを提案する。
我々は11のデータセットに対して実験を行い、AAPLは、いくつかのショット学習、ゼロショット学習、クロスデータセット、ドメイン一般化タスクにおいて、既存の手法と比較して好成績を示した。
論文 参考訳(メタデータ) (2024-04-25T17:51:10Z) - Compositional Kronecker Context Optimization for Vision-Language Models [27.234863452965886]
合成クローネッカーコンテキスト最適化(CK-CoOp)と呼ばれる軽量で一般化可能な手法を提案する。
技術的には、CK-CoOpにおけるプロンプトの文脈語は学習可能なベクトルであり、辞書から派生したベースベクトルを線形に結合することによって構成される。
CK-CoOpは、ベース・ツー・ドメイン・クロスタスクの一般化評価において最先端の性能を達成する。
論文 参考訳(メタデータ) (2024-03-18T10:09:28Z) - In-Context Probing: Toward Building Robust Classifiers via Probing Large
Language Models [5.5089506884366735]
本稿では, In-Context Probing (ICP) という代替手法を提案する。
インコンテキスト学習と同様に、入力の表現を命令で文脈化するが、出力予測を復号する代わりに、ラベルを予測するために文脈化表現を探索する。
我々はICPがファインタニングよりも優れていることを示し、より小さなモデルの上に分類器を構築するのに特に有用であることを示した。
論文 参考訳(メタデータ) (2023-05-23T15:43:04Z) - Learning Context-aware Classifier for Semantic Segmentation [88.88198210948426]
本稿では,文脈認識型分類器の学習を通じて文脈ヒントを利用する。
本手法はモデルに依存しないため,ジェネリックセグメンテーションモデルにも容易に適用できる。
無視できる追加パラメータと+2%の推論時間だけで、小型モデルと大型モデルの両方で十分な性能向上が達成されている。
論文 参考訳(メタデータ) (2023-03-21T07:00:35Z) - Compositional Exemplars for In-context Learning [21.961094715261133]
大規模な事前学習言語モデル(LM)は、印象的なインコンテキスト学習(ICL)能力を示している。
本稿では,CEIL (Compositional Exemplars for In-context Learning) を提案する。
我々は、感情分析、パラフレーズ検出、自然言語推論、コモンセンス推論、オープンドメイン質問応答、コード生成、意味解析を含む7つの異なるNLPタスクから、CEILを12の分類および生成データセットで検証する。
論文 参考訳(メタデータ) (2023-02-11T14:02:08Z) - Learning Prototype-oriented Set Representations for Meta-Learning [85.19407183975802]
集合構造データから学ぶことは、近年注目を集めている根本的な問題である。
本稿では,既存の要約ネットワークを改善するための新しい最適輸送方式を提案する。
さらに、少数ショット分類と暗黙的メタ生成モデリングの事例にインスタンス化する。
論文 参考訳(メタデータ) (2021-10-18T09:49:05Z) - MCDAL: Maximum Classifier Discrepancy for Active Learning [74.73133545019877]
近年の最先端のアクティブラーニング手法は, 主にGAN(Generative Adversarial Networks)をサンプル取得に活用している。
本稿では,MCDAL(Maximum Discrepancy for Active Learning)と呼ぶ新しいアクティブラーニングフレームワークを提案する。
特に,両者の差分を最大化することにより,より厳密な決定境界を学習する2つの補助的分類層を利用する。
論文 参考訳(メタデータ) (2021-07-23T06:57:08Z) - Multitask Learning for Class-Imbalanced Discourse Classification [74.41900374452472]
マルチタスクアプローチは,現在のベンチマークで7%のマイクロf1コアを改善できることを示す。
また,NLPにおける資源不足問題に対処するための追加手法の比較検討を行った。
論文 参考訳(メタデータ) (2021-01-02T07:13:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。