論文の概要: A character representation enhanced on-device Intent Classification
- arxiv url: http://arxiv.org/abs/2101.04456v1
- Date: Tue, 12 Jan 2021 13:02:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-04 01:46:40.405529
- Title: A character representation enhanced on-device Intent Classification
- Title(参考訳): デバイス上インテント分類の強化された文字表現
- Authors: Sudeep Deepak Shivnikar, Himanshu Arora, Harichandana B S S
- Abstract要約: デバイス上で効率的に実行可能な意図分類のための新しい軽量アーキテクチャを提案する。
本実験は,提案モデルが既存手法より優れ,ベンチマークデータセットの最先端結果が得られたことを実証する。
我々のモデルは5MBのメモリフットプリントと2ミリ秒の低推論時間を持ち、資源制約環境においてその効率を実証する。
- 参考スコア(独自算出の注目度): 2.2625832119364153
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Intent classification is an important task in natural language understanding
systems. Existing approaches have achieved perfect scores on the benchmark
datasets. However they are not suitable for deployment on low-resource devices
like mobiles, tablets, etc. due to their massive model size. Therefore, in this
paper, we present a novel light-weight architecture for intent classification
that can run efficiently on a device. We use character features to enrich the
word representation. Our experiments prove that our proposed model outperforms
existing approaches and achieves state-of-the-art results on benchmark
datasets. We also report that our model has tiny memory footprint of ~5 MB and
low inference time of ~2 milliseconds, which proves its efficiency in a
resource-constrained environment.
- Abstract(参考訳): 意図分類は自然言語理解システムにおいて重要なタスクである。
既存のアプローチは、ベンチマークデータセットで完璧なスコアを獲得しました。
しかし、モバイルやタブレットなどの低リソースデバイスへのデプロイには適していない。
モデルの大きさが大きすぎるためです
そこで本稿では,デバイス上で効率的に動作可能な,意図分類のための新しい軽量アーキテクチャを提案する。
我々は文字特徴を使って単語表現を豊かにする。
実験により,提案モデルが既存手法より優れ,ベンチマークデータセットの最先端結果が得られた。
また,本モデルではメモリフットプリントが5MB程度で,推定時間は2ミリ秒程度であり,資源制約環境下での効率を実証する。
関連論文リスト
- Adaptable Embeddings Network (AEN) [49.1574468325115]
我々はカーネル密度推定(KDE)を用いた新しいデュアルエンコーダアーキテクチャであるAdaptable Embeddings Networks (AEN)を紹介する。
AENは、再トレーニングせずに分類基準のランタイム適応を可能にし、非自己回帰的である。
アーキテクチャのプリプロセスとキャッシュ条件の埋め込み能力は、エッジコンピューティングアプリケーションやリアルタイム監視システムに最適である。
論文 参考訳(メタデータ) (2024-11-21T02:15:52Z) - EvalCrafter: Benchmarking and Evaluating Large Video Generation Models [70.19437817951673]
これらのモデルはしばしば、マルチアスペクト能力を持つ非常に大きなデータセットで訓練されているので、単純な指標から大きな条件生成モデルを判断することは困難である、と我々は主張する。
我々のアプローチは、テキスト・ツー・ビデオ生成のための700のプロンプトの多種多様な包括的リストを作成することである。
そこで我々は、視覚的品質、コンテンツ品質、動作品質、テキスト・ビデオアライメントの観点から、慎重に設計されたベンチマークに基づいて、最先端のビデオ生成モデルを評価する。
論文 参考訳(メタデータ) (2023-10-17T17:50:46Z) - Dual-Attention Model for Aspect-Level Sentiment Classification [0.0]
アスペクトレベルの感情分類のための新しいデュアルアテンションモデル(DAM)を提案する。
提案手法を,SemEval 2014のノートパソコンとレストランの3つのデータセットで評価した。
論文 参考訳(メタデータ) (2023-03-14T08:04:38Z) - Multitask Learning for Low Resource Spoken Language Understanding [26.106133114838215]
我々は、自動音声認識と意図分類、感情分類を用いて、二重目的のモデルを訓練する。
我々のモデルは、控えめなサイズではあるが、意図の分類に基づいて訓練されたモデルよりも改善されている。
本研究では,低リソースシナリオにおけるモデルの性能を,クラス毎に1つの例でトレーニングすることで検討する。
論文 参考訳(メタデータ) (2022-11-24T16:38:17Z) - Incremental Online Learning Algorithms Comparison for Gesture and Visual
Smart Sensors [68.8204255655161]
本稿では,加速度センサデータに基づくジェスチャー認識と画像分類の2つの実例として,最先端の4つのアルゴリズムを比較した。
以上の結果から,これらのシステムの信頼性と小型メモリMCUへのデプロイの可能性が確認された。
論文 参考訳(メタデータ) (2022-09-01T17:05:20Z) - Revisiting Classifier: Transferring Vision-Language Models for Video
Recognition [102.93524173258487]
ダウンストリームタスクのためのタスク非依存の深層モデルから知識を伝達することは、コンピュータビジョン研究において重要なトピックである。
本研究では,映像分類作業における知識の伝達に着目した。
予測された言語モデルを用いて、効率的な翻訳学習のための適切なセマンティックターゲットを生成する。
論文 参考訳(メタデータ) (2022-07-04T10:00:47Z) - Long Document Summarization with Top-down and Bottom-up Inference [113.29319668246407]
本稿では、2つの側面の要約モデルを改善するための原則的推論フレームワークを提案する。
我々のフレームワークは、トップレベルが長距離依存性をキャプチャするドキュメントの階層的な潜在構造を前提としています。
本稿では,様々な要約データセットに対して提案手法の有効性を示す。
論文 参考訳(メタデータ) (2022-03-15T01:24:51Z) - Lightweight Object-level Topological Semantic Mapping and Long-term
Global Localization based on Graph Matching [19.706907816202946]
本稿では,高精度でロバストなオブジェクトレベルのマッピングとローカライズ手法を提案する。
我々は、環境のランドマークをモデル化するために、意味情報と幾何学情報の両方を持つオブジェクトレベルの特徴を使用する。
提案したマップに基づいて,新たな局所的シーングラフ記述子を構築することにより,ロバストなローカライゼーションを実現する。
論文 参考訳(メタデータ) (2022-01-16T05:47:07Z) - LIDSNet: A Lightweight on-device Intent Detection model using Deep
Siamese Network [2.624902795082451]
LIDSNetは、デバイス上の意図を検出する新しい軽量なモデルである。
我々は,Samsung Galaxy S20デバイス上でのMobileBERTよりも,推論時に少なくとも41倍,30倍高速であることを示す。
論文 参考訳(メタデータ) (2021-10-06T18:20:37Z) - Enhancing the Generalization for Intent Classification and Out-of-Domain
Detection in SLU [70.44344060176952]
インテント分類は、音声言語理解(SLU)における主要な課題である
近年の研究では、余分なデータやラベルを使用することで、OOD検出性能が向上することが示されている。
本稿では、IND意図分類とOOD検出の両方をサポートしながら、INDデータのみを用いてモデルを訓練することを提案する。
論文 参考訳(メタデータ) (2021-06-28T08:27:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。