論文の概要: Investigation of Sentiment Controllable Chatbot
- arxiv url: http://arxiv.org/abs/2007.07196v1
- Date: Sat, 11 Jul 2020 16:04:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 12:58:13.799601
- Title: Investigation of Sentiment Controllable Chatbot
- Title(参考訳): 感情制御型チャットボットの検討
- Authors: Hung-yi Lee, Cheng-Hao Ho, Chien-Fu Lin, Chiung-Chih Chang, Chih-Wei
Lee, Yau-Shian Wang, Tsung-Yuan Hsu and Kuan-Yu Chen
- Abstract要約: 本稿では,反応の感情をスケールまたは調整する4つのモデルについて検討する。
モデルはペルソナベースのモデル、強化学習、プラグアンドプレイモデル、CycleGANである。
入力に対して応答が妥当かどうかを推定するために,機械評価メトリクスを開発する。
- 参考スコア(独自算出の注目度): 50.34061353512263
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conventional seq2seq chatbot models attempt only to find sentences with the
highest probabilities conditioned on the input sequences, without considering
the sentiment of the output sentences. In this paper, we investigate four
models to scale or adjust the sentiment of the chatbot response: a
persona-based model, reinforcement learning, a plug and play model, and
CycleGAN, all based on the seq2seq model. We also develop machine-evaluated
metrics to estimate whether the responses are reasonable given the input. These
metrics, together with human evaluation, are used to analyze the performance of
the four models in terms of different aspects; reinforcement learning and
CycleGAN are shown to be very attractive.
- Abstract(参考訳): 従来のSeq2seqチャットボットモデルは、出力文の感情を考慮せずに、入力シーケンスで条件付けられた最も高い確率の文のみを見つけようとする。
本稿では,チャットボット応答の感情をスケールまたは調整するための4つのモデル,すなわち,ペルソナベースモデル,強化学習,プラグアンドプレイモデル,サイクガンモデルについて検討する。
また,入力した応答が妥当かどうかを推定するために,機械評価指標を開発した。
これらの指標は、人的評価とともに、4つのモデルのパフォーマンスを異なる観点から分析するために使用され、強化学習とCycleGANは非常に魅力的である。
関連論文リスト
- A Conditional Generative Chatbot using Transformer Model [30.613612803419294]
本稿では,条件付きWasserstein Generative Adrial Networksと,応答生成のためのトランスフォーマモデルを用いて,新しいアーキテクチャを提案する。
我々の知る限りでは、ジェネレータと判別器モデルの両方に組込みトランスを用いて生成物を提案するのはこれが初めてである。
The proposed model on the Cornell Movie-Dialog corpus and the Chit-Chat datas confirm the superiority of the proposed model than the state-of-the-art alternatives。
論文 参考訳(メタデータ) (2023-06-03T10:35:04Z) - Enhancing Self-Consistency and Performance of Pre-Trained Language
Models through Natural Language Inference [72.61732440246954]
大規模な事前訓練された言語モデルは、テスト入力間の論理的一貫性を欠いていることが多い。
本研究では,事前学習したNLPモデルの一貫性と精度を高めるためのフレームワークであるConCoRDを提案する。
ConCoRDは、市販のクローズドブックQAおよびVQAモデルの精度と一貫性を一貫して向上することを示す。
論文 参考訳(メタデータ) (2022-11-21T21:58:30Z) - Quark: Controllable Text Generation with Reinforced Unlearning [68.07749519374089]
大規模言語モデルは、しばしばユーザの期待に合わない振る舞いを学ぶ。
本稿では,(不必要な)特性を定量化する報酬関数を最適化するアルゴリズムQuarkを紹介する。
未学習の毒性、ネガティブな感情、反復について、我々の実験はQuarkが強いベースラインと最先端の強化学習法の両方より優れていることを示している。
論文 参考訳(メタデータ) (2022-05-26T21:11:51Z) - Transformer Based Bengali Chatbot Using General Knowledge Dataset [0.0]
本研究では,ベンガルの一般知識質問応答(QA)データセットに基づいて,ベンガルの一般知識チャットボットに対してトランスフォーマーモデルを適用した。
適用QAデータに対して85.0BLEUをスコアし、トランスフォーマーモデルの性能の比較を確認するために、23.5BLEUのスコアを持つデータセットに着目してセック2seqモデルを訓練した。
論文 参考訳(メタデータ) (2021-11-06T18:33:20Z) - Turning Tables: Generating Examples from Semi-structured Tables for
Endowing Language Models with Reasoning Skills [32.55545292360155]
本稿では,半構造化テーブルを活用し,大規模質問とパラグラフのペアを自動的に生成する手法を提案する。
16種類の推論スキルを必要とする例を含む、この合成データに対する事前学習のステップを追加します。
我々のモデルであるPReasMは、トレーニング済みエンコーダ-デコーダモデルであるT5を大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2021-07-15T11:37:14Z) - STAR: Sparse Transformer-based Action Recognition [61.490243467748314]
本研究は,空間的次元と時間的次元に細かな注意を払っている新しいスケルトンに基づく人間行動認識モデルを提案する。
実験により、トレーニング可能なパラメータをはるかに少なくし、トレーニングや推論の高速化を図りながら、モデルが同等のパフォーマンスを達成できることが示されている。
論文 参考訳(メタデータ) (2021-07-15T02:53:11Z) - Is Automated Topic Model Evaluation Broken?: The Incoherence of
Coherence [62.826466543958624]
トピックモデル評価における標準化のギャップと検証のギャップについて考察する。
これらの指標によると、最近のニューラルネットワークコンポーネントに依存したモデルは、古典的なトピックモデルを超えている。
我々は,話題評価と単語侵入という,最も広く受け入れられている2つの人間の判断タスクとともに,自動的コヒーレンスを用いる。
論文 参考訳(メタデータ) (2021-07-05T17:58:52Z) - What do we expect from Multiple-choice QA Systems? [70.86513724662302]
複数のMultiple Choice Question Answering(MCQA)データセット上で,トップパフォーマンスモデルを検討する。
このようなモデルから得られる可能性のある一連の期待値に対して、モデル入力のゼロ情報摂動を用いて評価する。
論文 参考訳(メタデータ) (2020-11-20T21:27:10Z) - Chatbot Interaction with Artificial Intelligence: Human Data
Augmentation with T5 and Language Transformer Ensemble for Text
Classification [2.492300648514128]
本稿では,タスク分類のための深層学習チャットボットの訓練へのアプローチとして,人工知能(CI-AI)フレームワークを提案する。
このインテリジェントシステムは、大量のトレーニングデータを生成するために、人工的なパラフレーズによって人為的なデータを増強する。
トレーニングデータをT5モデルで拡張すると,すべてのモデルが改善されることがわかった。
論文 参考訳(メタデータ) (2020-10-12T19:37:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。