論文の概要: GLM-Dialog: Noise-tolerant Pre-training for Knowledge-grounded Dialogue
Generation
- arxiv url: http://arxiv.org/abs/2302.14401v1
- Date: Tue, 28 Feb 2023 08:35:28 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-01 17:29:10.976895
- Title: GLM-Dialog: Noise-tolerant Pre-training for Knowledge-grounded Dialogue
Generation
- Title(参考訳): GLM-Dialog:知識基底対話生成のためのノイズ耐性事前学習
- Authors: Jing Zhang, Xiaokang Zhang, Daniel Zhang-Li, Jifan Yu, Zijun Yao,
Zeyao Ma, Yiqi Xu, Haohua Wang, Xiaohan Zhang, Nianyi Lin, Sunrui Lu, Juanzi
Li, Jie Tang
- Abstract要約: GLM-Dialogは、中国語で知識に基づく会話ができる10Bパラメータを持つ大規模言語モデル(LLM)である。
我々は,オープンソースモデルと信頼性のある対話評価システムの開発を促進するために,評価プラットフォームをオンラインで提供します。
- 参考スコア(独自算出の注目度): 21.91914619107555
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present GLM-Dialog, a large-scale language model (LLM) with 10B parameters
capable of knowledge-grounded conversation in Chinese using a search engine to
access the Internet knowledge. GLM-Dialog offers a series of applicable
techniques for exploiting various external knowledge including both helpful and
noisy knowledge, enabling the creation of robust knowledge-grounded dialogue
LLMs with limited proper datasets. To evaluate the GLM-Dialog more fairly, we
also propose a novel evaluation method to allow humans to converse with
multiple deployed bots simultaneously and compare their performance implicitly
instead of explicitly rating using multidimensional metrics.Comprehensive
evaluations from automatic to human perspective demonstrate the advantages of
GLM-Dialog comparing with existing open source Chinese dialogue models. We
release both the model checkpoint and source code, and also deploy it as a
WeChat application to interact with users. We offer our evaluation platform
online in an effort to prompt the development of open source models and
reliable dialogue evaluation systems. The additional easy-to-use toolkit that
consists of short text entity linking, query generation, and helpful knowledge
classification is also released to enable diverse applications. All the source
code is available on Github.
- Abstract(参考訳): GLM-Dialogは大規模言語モデル(LLM)で、中国語で10Bのパラメータを持ち、サーチエンジンを用いて中国語の知識に基づく会話ができる。
glm-dialogは、有用な知識と騒がしい知識の両方を含む様々な外部知識を利用するための、適用可能な一連の技術を提供する。
GLM-Dialogをより公平に評価するために,複数デプロイされたボットとの同時会話を可能にする新たな評価手法を提案し,その性能を多次元メトリクスを用いて明示的に評価するのではなく,暗黙的に比較する。
モデルチェックポイントとソースコードの両方をリリースし、ユーザと対話するためのWeChatアプリケーションとしてデプロイします。
我々は,オープンソースモデルと信頼性のある対話評価システムの開発を促進するために,評価プラットフォームをオンラインで提供します。
短いテキストエンティティリンク、クエリ生成、有用な知識分類からなる、使い易いツールキットもリリースされ、多様なアプリケーションを可能にする。
すべてのソースコードはGithubで入手できる。
関連論文リスト
- Self-seeding and Multi-intent Self-instructing LLMs for Generating
Intent-aware Information-Seeking dialogs [18.102066943918473]
大規模言語モデル (LLM) は合成データの生成に有効であることが示されている。
本稿では,新しい自己探索型多目的自己指導方式であるSOLIDを提案する。
我々は、SOLIDとSOLID-RLを使用して300万以上の意図認識ダイアログを生成し、既存のデータセットのサイズを超える。
論文 参考訳(メタデータ) (2024-02-18T16:20:43Z) - DIALIGHT: Lightweight Multilingual Development and Evaluation of
Task-Oriented Dialogue Systems with Large Language Models [76.79929883963275]
DIALIGHTは多言語タスク指向対話(ToD)システムの開発と評価のためのツールキットである。
ローカル発話レベルとグローバル対話レベルの両方において、人間のきめ細かい評価のためのセキュアでユーザフレンドリーなWebインターフェースを備えている。
評価の結果, PLMの微調整により精度とコヒーレンスが向上する一方, LLMベースのシステムは多様で類似した応答を生成するのに優れていた。
論文 参考訳(メタデータ) (2024-01-04T11:27:48Z) - DialCLIP: Empowering CLIP as Multi-Modal Dialog Retriever [83.33209603041013]
マルチモーダルダイアログ検索のためのパラメータ効率の高いプロンプトチューニング手法であるDialCLIPを提案する。
提案手法では,事前学習された視覚言語モデルCLIP内のプロンプトに抽出された文脈特徴を学習するためのマルチモーダルコンテキスト生成手法を提案する。
様々なタイプの検索を容易にするために,CLIP出力からマルチモーダル表現空間へのマッピングを学習するために,複数の専門家を設計する。
論文 参考訳(メタデータ) (2024-01-02T07:40:12Z) - Frugal Prompting for Dialog Models [17.048111072193933]
本研究では,大規模言語モデル(LLM)を用いた対話システム構築のための異なるアプローチについて検討する。
即時チューニングの一環として、インストラクション、例題、現在のクエリ、追加のコンテキストを提供する様々な方法を試行する。
この研究は、最適な使用情報密度を持つダイアログ履歴の表現も分析する。
論文 参考訳(メタデータ) (2023-05-24T09:06:49Z) - Leveraging Large Language Models in Conversational Recommender Systems [9.751217336860924]
Conversational Recommender System (CRS)は、リアルタイムのマルチターン対話を通じてシステムと対話できるようにすることにより、ユーザに対して透明性とコントロールを向上する。
大言語モデル(LLM)は、自然に会話し、世界知識と常識推論を言語理解に組み込むという前例のない能力を示した。
論文 参考訳(メタデータ) (2023-05-13T16:40:07Z) - ChatPLUG: Open-Domain Generative Dialogue System with Internet-Augmented
Instruction Tuning for Digital Human [76.62897301298699]
ChatPLUGは、デジタルヒューマンアプリケーションのための中国のオープンドメイン対話システムである。
モデルネームは, 自動評価と人的評価の両方において, 最先端の中国語対話システムより優れていることを示す。
高速な推論でスマートスピーカーやインスタントメッセージアプリケーションのような実世界のアプリケーションにモデルネームをデプロイします。
論文 参考訳(メタデータ) (2023-04-16T18:16:35Z) - PK-Chat: Pointer Network Guided Knowledge Driven Generative Dialogue
Model [79.64376762489164]
PK-Chatは、知識グラフ上のポインタネットワークと、事前訓練された言語モデルを組み合わせた、ポインタネットワーク誘導生成対話モデルである。
PK-Chatが対話で生成した単語は、単語リストの予測と外部知識グラフ知識の直接予測から導かれる。
PK-Chatに基づく対話システムは、地球科学の学術シナリオ向けに構築されている。
論文 参考訳(メタデータ) (2023-04-02T18:23:13Z) - CGoDial: A Large-Scale Benchmark for Chinese Goal-oriented Dialog
Evaluation [75.60156479374416]
CGoDialは、Goal指向のダイアログ評価のための、新しい挑戦的で包括的な中国のベンチマークである。
96,763のダイアログセッションと574,949のダイアログがすべて含まれており、異なる知識ソースを持つ3つのデータセットをカバーする。
学術ベンチマークと音声対話のシナリオのギャップを埋めるために、実際の会話からデータを収集したり、クラウドソーシングを通じて既存のデータセットに音声機能を追加する。
論文 参考訳(メタデータ) (2022-11-21T16:21:41Z) - Few-Shot Bot: Prompt-Based Learning for Dialogue Systems [58.27337673451943]
ごく少数の例を使って会話を学ぶことは、会話型AIにおける大きな課題である。
現在の最良の会話モデルは、良いチャットシャッター(例:BlenderBot)またはゴール指向システム(例:MinTL)である。
グラデーションベースの微調整を必要とせず、学習の唯一の源としていくつかの例を用いるプロンプトベースの数ショット学習を提案する。
論文 参考訳(メタデータ) (2021-10-15T14:36:45Z) - Dialog Simulation with Realistic Variations for Training Goal-Oriented
Conversational Systems [14.206866126142002]
ゴール指向のダイアログシステムにより、ユーザーは映画に関する情報をリクエストしたり、チケットを予約したりといった特定の目標を達成することができる。
本稿では,注釈付きダイアログとダイアログスキーマから,注釈付きダイアログの大規模なコーパスを自動生成する手法を提案する。
ベースラインダイアログ生成手法と比較して,ホールドアウトテストセットの50%の相対精度を実現した。
論文 参考訳(メタデータ) (2020-11-16T19:39:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。