論文の概要: Transformer Based Bengali Chatbot Using General Knowledge Dataset
- arxiv url: http://arxiv.org/abs/2111.03937v2
- Date: Tue, 9 Nov 2021 04:42:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-10 13:18:27.913571
- Title: Transformer Based Bengali Chatbot Using General Knowledge Dataset
- Title(参考訳): 一般知識データセットを用いたトランスフォーマーベースのベンガルチャットボット
- Authors: Abu Kaisar Mohammad Masum, Sheikh Abujar, Sharmin Akter, Nushrat Jahan
Ria, Syed Akhter Hossain
- Abstract要約: 本研究では,ベンガルの一般知識質問応答(QA)データセットに基づいて,ベンガルの一般知識チャットボットに対してトランスフォーマーモデルを適用した。
適用QAデータに対して85.0BLEUをスコアし、トランスフォーマーモデルの性能の比較を確認するために、23.5BLEUのスコアを持つデータセットに着目してセック2seqモデルを訓練した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: An AI chatbot provides an impressive response after learning from the trained
dataset. In this decade, most of the research work demonstrates that deep
neural models superior to any other model. RNN model regularly used for
determining the sequence-related problem like a question and it answers. This
approach acquainted with everyone as seq2seq learning. In a seq2seq model
mechanism, it has encoder and decoder. The encoder embedded any input sequence,
and the decoder embedded output sequence. For reinforcing the seq2seq model
performance, attention mechanism added into the encoder and decoder. After
that, the transformer model has introduced itself as a high-performance model
with multiple attention mechanism for solving the sequence-related dilemma.
This model reduces training time compared with RNN based model and also
achieved state-of-the-art performance for sequence transduction. In this
research, we applied the transformer model for Bengali general knowledge
chatbot based on the Bengali general knowledge Question Answer (QA) dataset. It
scores 85.0 BLEU on the applied QA data. To check the comparison of the
transformer model performance, we trained the seq2seq model with attention on
our dataset that scores 23.5 BLEU.
- Abstract(参考訳): AIチャットボットは、トレーニングされたデータセットから学んだ後、印象的な応答を提供する。
この10年間の研究では、ディープニューラルモデルは他のどのモデルよりも優れていることが示されています。
RNNモデルは、質問や回答のようなシーケンス関連の問題を決定するために定期的に使用される。
このアプローチは、seq2seq学習として全員と知り合った。
seq2seqモデルメカニズムでは、エンコーダとデコーダを持つ。
エンコーダは任意の入力シーケンスを組込み、デコーダ組込み出力シーケンスを組込みます。
seq2seqモデルの性能を強化するため、エンコーダとデコーダに注意機構が追加された。
その後、トランスモデルは、シーケンス関連ジレンマを解くための複数の注意機構を備えた高性能モデルとして自身を導入した。
このモデルは、RNNベースモデルと比較してトレーニング時間を短縮し、シーケンシャルトランスダクションの最先端性能を達成する。
本研究では,ベンガルの一般知識質問応答(QA)データセットに基づいて,ベンガルの一般知識チャットボットに対するトランスフォーマーモデルを適用した。
適用されたQAデータに基づいて85.0BLEUをスコアする。
トランスフォーマーモデルの性能を比較するために、我々は23.5 bleuのデータセットに注目してseq2seqモデルを訓練した。
関連論文リスト
- Recipes for Sequential Pre-training of Multilingual Encoder and Seq2Seq
Models [16.49601740473416]
1つのモデルを他のモデルから初期化することで、トレーニング効率を向上させるためのレシピを探索する。
エンコーダを用いてSeq2seqのトレーニングを温めることで、Scratch Seq2seqモデルのタスク性能にマッチできることを示す。
論文 参考訳(メタデータ) (2023-06-14T21:41:52Z) - A Conditional Generative Chatbot using Transformer Model [30.613612803419294]
本稿では,条件付きWasserstein Generative Adrial Networksと,応答生成のためのトランスフォーマモデルを用いて,新しいアーキテクチャを提案する。
我々の知る限りでは、ジェネレータと判別器モデルの両方に組込みトランスを用いて生成物を提案するのはこれが初めてである。
The proposed model on the Cornell Movie-Dialog corpus and the Chit-Chat datas confirm the superiority of the proposed model than the state-of-the-art alternatives。
論文 参考訳(メタデータ) (2023-06-03T10:35:04Z) - Inflected Forms Are Redundant in Question Generation Models [27.49894653349779]
本稿では,エンコーダ・デコーダ・フレームワークを用いた質問生成の性能向上手法を提案する。
まず,エンコーダの入力から入力された単語を識別し,根語に置き換える。
次に,エンコード・デコーダ・フレームワークにおける以下の動作の組合せとしてQGを適用することを提案する。質問語の生成,ソースシーケンスからの単語のコピー,単語変換型の生成である。
論文 参考訳(メタデータ) (2023-01-01T13:08:11Z) - Enhancing Self-Consistency and Performance of Pre-Trained Language
Models through Natural Language Inference [72.61732440246954]
大規模な事前訓練された言語モデルは、テスト入力間の論理的一貫性を欠いていることが多い。
本研究では,事前学習したNLPモデルの一貫性と精度を高めるためのフレームワークであるConCoRDを提案する。
ConCoRDは、市販のクローズドブックQAおよびVQAモデルの精度と一貫性を一貫して向上することを示す。
論文 参考訳(メタデータ) (2022-11-21T21:58:30Z) - When Liebig's Barrel Meets Facial Landmark Detection: A Practical Model [87.25037167380522]
正確で、堅牢で、効率的で、一般化可能で、エンドツーエンドのトレーニングが可能なモデルを提案する。
精度を向上させるために,2つの軽量モジュールを提案する。
DQInitは、インプットからデコーダのクエリを動的に初期化し、複数のデコーダ層を持つものと同じ精度でモデルを実現する。
QAMemは、共有するクエリではなく、それぞれのクエリに別々のメモリ値を割り当てることで、低解像度のフィーチャーマップ上のクエリの識別能力を高めるように設計されている。
論文 参考訳(メタデータ) (2021-05-27T13:51:42Z) - TSNAT: Two-Step Non-Autoregressvie Transformer Models for Speech
Recognition [69.68154370877615]
非自己回帰(NAR)モデルは、出力トークン間の時間的依存関係を排除し、少なくとも1ステップで出力トークン全体を予測することができる。
この2つの問題に対処するため,TSNATと呼ばれる新しいモデルを提案する。
以上の結果から,TSNATはARモデルと競合する性能を示し,複雑なNARモデルよりも優れていた。
論文 参考訳(メタデータ) (2021-04-04T02:34:55Z) - Last Query Transformer RNN for knowledge tracing [0.0]
本稿では,過去の学習活動から,学生の回答の正しさを予測するための効率的なモデルを提案する。
私は,カグルで開催されている'Riiid!Answer Correctness Prediction'コンペで1位を獲得しました。
論文 参考訳(メタデータ) (2021-02-10T17:10:31Z) - A Neural Few-Shot Text Classification Reality Check [4.689945062721168]
いくつかのニューラルな数発の分類モデルが出現し、時間とともに大きな進歩をもたらした。
本稿では,これらのモデルを全て比較し,まず画像処理分野のモデルをNLPに適応させ,次にトランスにアクセスできるようにした。
次に,多数のクラスを持つことで知られるインテント検出タスクにおいて,同じトランスフォーマーベースのエンコーダを備えたモデルをテストする。
論文 参考訳(メタデータ) (2021-01-28T15:46:14Z) - Investigation of Sentiment Controllable Chatbot [50.34061353512263]
本稿では,反応の感情をスケールまたは調整する4つのモデルについて検討する。
モデルはペルソナベースのモデル、強化学習、プラグアンドプレイモデル、CycleGANである。
入力に対して応答が妥当かどうかを推定するために,機械評価メトリクスを開発する。
論文 参考訳(メタデータ) (2020-07-11T16:04:30Z) - Spike-Triggered Non-Autoregressive Transformer for End-to-End Speech
Recognition [66.47000813920617]
エンドツーエンド音声認識のためのスパイクトリガー付き非自己回帰変換器モデルを提案する。
提案モデルでは,ターゲット列の長さを正確に予測し,競合性能を実現する。
このモデルは0.0056のリアルタイム係数も達成しており、全ての主流音声認識モデルを超えている。
論文 参考訳(メタデータ) (2020-05-16T08:27:20Z) - Learning to Encode Position for Transformer with Continuous Dynamical
Model [88.69870971415591]
本研究では,トランスフォーマーモデルなどの非リカレントモデルの位置情報をエンコードする新しい学習方法を提案する。
このような力学系による位置指数に沿った符号化結果の進化をモデル化する。
論文 参考訳(メタデータ) (2020-03-13T00:41:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。