論文の概要: Profitable Trade-Off Between Memory and Performance In Multi-Domain
Chatbot Architectures
- arxiv url: http://arxiv.org/abs/2111.03963v1
- Date: Sat, 6 Nov 2021 20:45:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-09 14:11:46.902115
- Title: Profitable Trade-Off Between Memory and Performance In Multi-Domain
Chatbot Architectures
- Title(参考訳): マルチドメインチャットボットアーキテクチャにおけるメモリとパフォーマンスの利益のトレードオフ
- Authors: D Emre Tasar, Sukru Ozan, M Fatih Akca, Oguzhan Olmez, Semih Gulum,
Secilay Kutay, Ceren Belhan
- Abstract要約: 本研究では, 自然言語処理の分野における分類問題を解くために, Bi Representations for Transformers (BERT) を用いた。
これは、複数の分類問題を解決するために使用される複数のモデルによって生成されるサーバの負荷を軽減することを目的としている。
この方法で使用されるデータセットは、154クラスの5つの分類問題からなる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Text classification problem is a very broad field of study in the field of
natural language processing. In short, the text classification problem is to
determine which of the previously determined classes the given text belongs to.
Successful studies have been carried out in this field in the past studies. In
the study, Bidirectional Encoder Representations for Transformers (BERT), which
is a frequently preferred method for solving the classification problem in the
field of natural language processing, is used. By solving classification
problems through a single model to be used in a chatbot architecture, it is
aimed to alleviate the load on the server that will be created by more than one
model used for solving more than one classification problem. At this point,
with the masking method applied during the estimation of a single BERT model,
which was created for classification in more than one subject, the estimation
of the model was provided on a problem-based basis. Three separate data sets
covering different fields from each other are divided by various methods in
order to complicate the problem, and classification problems that are very
close to each other in terms of field are also included in this way. The
dataset used in this way consists of five classification problems with 154
classes. A BERT model containing all classification problems and other BERT
models trained specifically for the problems were compared with each other in
terms of performance and the space they occupied on the server.
- Abstract(参考訳): テキスト分類問題は自然言語処理の分野で非常に広い分野の研究である。
要するに、テキスト分類問題は、与えられたテキストがどのクラスに属するかを決定することである。
この分野では過去の研究で成功した研究が行われている。
本研究では,自然言語処理分野における分類問題の解法としてよく好まれる変換器の双方向エンコーダ表現(BERT)を用いる。
チャットボットアーキテクチャで使用する単一モデルによる分類問題の解決により、複数の分類問題を解決するために使用される複数のモデルによって生成されるサーバの負荷を軽減することが目的である。
この時点では,複数の被験者の分類のために作成された単一のbertモデルの推定中にマスキング法を適用し,問題ベースでモデルの推定を行った。
異なるフィールドを互いにカバーする3つのデータセットを、問題を複雑にするために様々な方法で分割し、フィールドの観点から互いに非常に近い分類問題もこれに含まれる。
この方法で使用されるデータセットは、154クラスの5つの分類問題からなる。
これらの問題に特化して訓練された全ての分類問題と他のBERTモデルを含むBERTモデルは、サーバ上で占有した性能と空間の観点から比較した。
関連論文リスト
- Neural Architecture Search for Sentence Classification with BERT [4.862490782515929]
計算コストが小さいだけで,現在の単一層よりも優れたアーキテクチャを見つけるために,AutoML検索を実行します。
GLUEデータセットから,様々なNLPベンチマークを用いて分類アーキテクチャを検証する。
論文 参考訳(メタデータ) (2024-03-27T13:25:43Z) - Language Models for Text Classification: Is In-Context Learning Enough? [54.869097980761595]
最近の基礎言語モデルでは、ゼロショットや少数ショットの設定で多くのNLPタスクで最先端のパフォーマンスが示されている。
より標準的なアプローチよりもこれらのモデルの利点は、自然言語(prompts)で書かれた命令を理解する能力である。
これにより、アノテーション付きインスタンスが限られているドメインのテキスト分類問題に対処するのに適している。
論文 参考訳(メタデータ) (2024-03-26T12:47:39Z) - Seed-Guided Fine-Grained Entity Typing in Science and Engineering
Domains [51.02035914828596]
科学・工学分野において,シード誘導型細粒度エンティティタイピングの課題について検討する。
まず、ラベルのないコーパスから各タイプのエンティティを抽出し、弱い監視力を高めるSETypeを提案する。
そして、リッチなエンティティをラベルなしのテキストにマッチさせ、擬似ラベル付きサンプルを取得し、見知らぬ型と見えない型の両方に推論できるテキストエンテリメントモデルを訓練する。
論文 参考訳(メタデータ) (2024-01-23T22:36:03Z) - Class-Specific Variational Auto-Encoder for Content-Based Image
Retrieval [95.42181254494287]
本稿では,変分自動エンコーダ(VAE)に対する正規化損失を提案する。
その結果、モデルは、関心のクラスに属するデータを他のあらゆる可能性から識別することを学ぶ。
実験の結果,提案手法はドメイン内およびドメイン外検索における競合よりも優れていた。
論文 参考訳(メタデータ) (2023-04-23T19:51:25Z) - Attention is Not Always What You Need: Towards Efficient Classification
of Domain-Specific Text [1.1508304497344637]
階層構造に整理された数百のクラスを持つ大規模ITコーパスでは、階層構造における上位レベルのクラスの正確な分類が不可欠である。
ビジネスの世界では、高額なブラックボックスモデルよりも効率的で説明可能なMLモデルが好まれる。
PLMが広く使われているにもかかわらず、これらのモデルがドメイン固有のテキスト分類に使われている理由として、明確で明確な必要性が欠如している。
論文 参考訳(メタデータ) (2023-03-31T03:17:23Z) - A Multi-Class SWAP-Test Classifier [0.0]
この研究は、そのバイナリ前駆体と最近の研究におけるラベル状態の使用に触発された最初のマルチクラスSWAP-Test分類器を示す。
従来の研究とは対照的に、必要な量子ビット数、測定戦略、使用する回路の位相はクラス数に不変である。
解析結果と数値シミュレーションの両方で、この分類器は多様な分類問題に適用されるだけでなく、特定の雑音に対して堅牢であることが示された。
論文 参考訳(メタデータ) (2023-02-06T18:31:43Z) - TabLLM: Few-shot Classification of Tabular Data with Large Language
Models [66.03023402174138]
大規模言語モデルのゼロショットおよび少数ショット分類への応用について検討する。
テンプレートやテーブル・ツー・テキストモデル,大規模言語モデルなど,いくつかのシリアライズ手法を評価する。
このアプローチは、勾配木のような強力な伝統的なベースラインとも競合する。
論文 参考訳(メタデータ) (2022-10-19T17:08:13Z) - Many-Class Text Classification with Matching [65.74328417321738]
textbfText textbfClassification をテキストとラベル間のtextbfMatching 問題として定式化し,TCM というシンプルなフレームワークを提案する。
従来のテキスト分類手法と比較して、TCMは分類ラベルのきめ細かい意味情報を活用している。
論文 参考訳(メタデータ) (2022-05-23T15:51:19Z) - A Framework for Multi-View Classification of Features [6.660458629649826]
データ分類問題の解決では、機能セットが大きすぎると、典型的なアプローチではその問題を解決することができない。
本研究では,人間の複数視点理論における物体認識の問題に触発された,多視点アンサンブル分類のための革新的な枠組みを提案する。
論文 参考訳(メタデータ) (2021-08-02T16:27:43Z) - Cooperative Bi-path Metric for Few-shot Learning [50.98891758059389]
数発の分類問題の調査に2つの貢献をしている。
本稿では,従来の教師あり学習法において,ベースクラスで訓練されたシンプルで効果的なベースラインについて報告する。
本稿では, 基礎クラスと新しいクラス間の相関を利用して, 精度の向上を図る, 分類のための協調的二経路計量を提案する。
論文 参考訳(メタデータ) (2020-08-10T11:28:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。