論文の概要: Thread Detection and Response Generation using Transformers with Prompt
Optimisation
- arxiv url: http://arxiv.org/abs/2403.05931v1
- Date: Sat, 9 Mar 2024 14:50:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 11:43:43.140113
- Title: Thread Detection and Response Generation using Transformers with Prompt
Optimisation
- Title(参考訳): プロンプト最適化を用いた変圧器によるスレッド検出と応答生成
- Authors: Kevin Joshua T, Arnav Agarwal, Shriya Sanjay, Yash Sarda, John Sahaya
Rani Alex, Saurav Gupta, Sushant Kumar, Vishwanath Kamath
- Abstract要約: 本稿では,スレッドを識別し,その重要度に基づいて応答生成を優先するエンドツーエンドモデルを開発する。
モデルは最大10倍の速度向上を実現し、既存のモデルに比べて一貫性のある結果を生成する。
- 参考スコア(独自算出の注目度): 5.335657953493376
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Conversational systems are crucial for human-computer interaction, managing
complex dialogues by identifying threads and prioritising responses. This is
especially vital in multi-party conversations, where precise identification of
threads and strategic response prioritisation ensure efficient dialogue
management. To address these challenges an end-to-end model that identifies
threads and prioritises their response generation based on the importance was
developed, involving a systematic decomposition of the problem into discrete
components - thread detection, prioritisation, and performance optimisation
which was meticulously analysed and optimised. These refined components
seamlessly integrate into a unified framework, in conversational systems.
Llama2 7b is used due to its high level of generalisation but the system can be
updated with any open source Large Language Model(LLM). The computational
capabilities of the Llama2 model was augmented by using fine tuning methods and
strategic prompting techniques to optimise the model's performance, reducing
computational time and increasing the accuracy of the model. The model achieves
up to 10x speed improvement, while generating more coherent results compared to
existing models.
- Abstract(参考訳): 対話システムは、人間とコンピュータの対話、スレッドの識別と優先順位付けによる複雑な対話の管理に不可欠である。
これは、スレッドの正確な識別と戦略的応答優先が効果的な対話管理を保証する多人数会話において特に重要である。
これらの課題に対処するために、スレッドを識別し、その重要度に基づいて応答生成を優先順位付けするエンドツーエンドモデルを開発した。
これらの洗練されたコンポーネントは、会話システムにおける統一されたフレームワークにシームレスに統合される。
Llama2 7bは高レベルの一般化のために使用されるが、このシステムは任意のオープンソースのLarge Language Model(LLM)で更新できる。
Llama2モデルの計算能力は、モデルの性能を最適化し、計算時間を短縮し、モデルの精度を高めるために、微調整法と戦略的なプロンプト技術を用いて強化された。
モデルは最大10倍の速度向上を実現し、既存のモデルに比べて一貫性のある結果を生成する。
関連論文リスト
- Automatically Learning Hybrid Digital Twins of Dynamical Systems [56.69628749813084]
Digital Twins (DT)は、現実世界のシステムの状態と時間力学をシミュレートする。
DTは、しばしばデータスカース設定で目に見えない条件に一般化するのに苦労します。
本稿では,HDTwinsを自律的に提案し,評価し,最適化するための進化的アルゴリズム(textbfHDTwinGen$)を提案する。
論文 参考訳(メタデータ) (2024-10-31T07:28:22Z) - Reliable LLM-based User Simulator for Task-Oriented Dialogue Systems [2.788542465279969]
本稿では,ドメイン対応ユーザシミュレータDAUSを紹介する。
タスク指向対話の実例について,DAUSを微調整する。
2つの関連するベンチマークの結果は、ユーザ目標達成の点で大幅に改善されている。
論文 参考訳(メタデータ) (2024-02-20T20:57:47Z) - PICK: Polished & Informed Candidate Scoring for Knowledge-Grounded
Dialogue Systems [59.1250765143521]
現在の知識接地対話システムは、生成された応答を人間に好まれる品質に合わせるのに失敗することが多い。
我々は,世代別再描画フレームワークであるPolseed & Informed Candidate Scoring (PICK)を提案する。
対話履歴に関連性を維持しつつ,より忠実な応答を生成するためのPICKの有効性を示す。
論文 参考訳(メタデータ) (2023-09-19T08:27:09Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - SimOAP: Improve Coherence and Consistency in Persona-based Dialogue
Generation via Over-sampling and Post-evaluation [54.66399120084227]
大規模コーパスで訓練された言語モデルは、オープンドメイン対話において驚くほど流動的な結果を生み出すことができる。
ペルソナに基づく対話生成タスクでは、一貫性と一貫性が言語モデルにとって大きな課題である。
オーバーサンプリングとポスト評価という2段階のSimOAP戦略が提案されている。
論文 参考訳(メタデータ) (2023-05-18T17:23:00Z) - Evaluating and Improving Context Attention Distribution on Multi-Turn
Response Generation using Self-Contained Distractions [0.18275108630751835]
我々は,マルチターン生成に基づく会話エージェントの本質的構成要素であるコンテキストアテンション分布に着目した。
このコンポーネントの性能向上のために,自己完結型散逸を利用した最適化戦略を提案する。
Ubuntuのチャットログデータセットを用いた実験により,コンテクストアテンション分布において,同等のパープレキシティを持つモデルを識別できることが判明した。
論文 参考訳(メタデータ) (2022-11-09T15:12:20Z) - Building an Efficient and Effective Retrieval-based Dialogue System via
Mutual Learning [27.04857039060308]
検索システムを構築するために,両世界の長所を組み合わせることを提案する。
従来の機能ベースの事前検索モデルを置き換えるために、高速なバイエンコーダを使用します。
我々は、相互学習を通じて、事前検索モデルと再評価モデルとを同時に訓練する。
論文 参考訳(メタデータ) (2021-10-01T01:32:33Z) - Enhancing Dialogue Generation via Multi-Level Contrastive Learning [57.005432249952406]
質問に対する応答のきめ細かい品質をモデル化するマルチレベルコントラスト学習パラダイムを提案する。
Rank-aware (RC) ネットワークはマルチレベルコントラスト最適化の目的を構築するために設計されている。
本研究では,知識推論(KI)コンポーネントを構築し,学習中の参照からキーワードの知識を抽出し,そのような情報を活用して情報的単語の生成を促す。
論文 参考訳(メタデータ) (2020-09-19T02:41:04Z) - Learning an Effective Context-Response Matching Model with
Self-Supervised Tasks for Retrieval-based Dialogues [88.73739515457116]
我々は,次のセッション予測,発話復元,不整合検出,一貫性判定を含む4つの自己教師型タスクを導入する。
我々はPLMに基づく応答選択モデルとこれらの補助タスクをマルチタスク方式で共同で訓練する。
実験結果から,提案した補助的自己教師型タスクは,多ターン応答選択において大きな改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-09-14T08:44:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。