論文の概要: A scalable framework for learning from implicit user feedback to improve
natural language understanding in large-scale conversational AI systems
- arxiv url: http://arxiv.org/abs/2010.12251v2
- Date: Fri, 10 Sep 2021 06:42:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-03 22:35:27.532911
- Title: A scalable framework for learning from implicit user feedback to improve
natural language understanding in large-scale conversational AI systems
- Title(参考訳): 暗黙のユーザーフィードバックから学習し、大規模対話型AIシステムにおける自然言語理解を改善するスケーラブルなフレームワーク
- Authors: Sunghyun Park, Han Li, Ameen Patel, Sidharth Mudgal, Sungjin Lee,
Young-Bum Kim, Spyros Matsoukas, Ruhi Sarikaya
- Abstract要約: 自然言語理解(NLU)は、ユーザ要求のセマンティックな理解を生み出す役割を担います。
我々は,暗黙のユーザフィードバックを活用することで,大規模対話型AIシステムにおいてNLUを改善するためのスケーラブルで自動的なアプローチを提案する。
大規模生産システムにおけるフレームワークの適用とNLUの改善結果を示し,その影響を10ドメインにわたって示す。
- 参考スコア(独自算出の注目度): 36.351794377515745
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Natural Language Understanding (NLU) is an established component within a
conversational AI or digital assistant system, and it is responsible for
producing semantic understanding of a user request. We propose a scalable and
automatic approach for improving NLU in a large-scale conversational AI system
by leveraging implicit user feedback, with an insight that user interaction
data and dialog context have rich information embedded from which user
satisfaction and intention can be inferred. In particular, we propose a general
domain-agnostic framework for curating new supervision data for improving NLU
from live production traffic. With an extensive set of experiments, we show the
results of applying the framework and improving NLU for a large-scale
production system and show its impact across 10 domains.
- Abstract(参考訳): 自然言語理解(Natural Language Understanding, NLU)は、会話型AIやデジタルアシスタントシステムの中で確立されたコンポーネントであり、ユーザ要求のセマンティックな理解を生み出す責任がある。
我々は,ユーザインタラクションデータと対話コンテキストが,ユーザの満足度や意図を推測できるリッチな情報に埋め込まれているという知見を取り入れ,暗黙のユーザフィードバックを活用することによって,大規模対話型AIシステムにおいてNLUを改善するためのスケーラブルで自動的なアプローチを提案する。
特に,NLUを実運用トラフィックから改善するために,新たな監視データをキュレートするための一般的なドメインに依存しないフレームワークを提案する。
広範な実験により,大規模生産システムにおけるnluの適用結果とnlu改善結果を示し,その影響を10領域にまたがって示した。
関連論文リスト
- Constraining Participation: Affordances of Feedback Features in Interfaces to Large Language Models [49.74265453289855]
大規模言語モデル(LLM)は、コンピュータ、Webブラウザ、ブラウザベースのインターフェースによるインターネット接続を持つ人なら誰でも利用できるようになった。
本稿では,ChatGPTインタフェースにおける対話型フィードバック機能の可能性について検討し,ユーザ入力の形状やイテレーションへの参加について分析する。
論文 参考訳(メタデータ) (2024-08-27T13:50:37Z) - Interpretable User Satisfaction Estimation for Conversational Systems with Large Language Models [35.95405294377247]
既成のMLモデルやテキスト埋め込みに基づくアプローチは、一般化可能なパターンの抽出に不足している。
LLMは、埋め込み型アプローチよりも、自然言語の発話から、ユーザの満足度を解釈可能なシグナルを抽出できることを示す。
論文 参考訳(メタデータ) (2024-03-19T02:57:07Z) - Emerging Synergies Between Large Language Models and Machine Learning in
Ecommerce Recommendations [19.405233437533713]
大規模言語モデル(LLM)は、言語理解と生成の基本的なタスクにおいて優れた機能を持つ。
機能エンコーダとしてLLMを用いたユーザとアイテムの表現を学習するための代表的なアプローチを提案する。
次に、協調フィルタリング強化レコメンデーションシステムのためのLLM技術の最新技術について概説した。
論文 参考訳(メタデータ) (2024-03-05T08:31:00Z) - Building Trust in Conversational AI: A Comprehensive Review and Solution
Architecture for Explainable, Privacy-Aware Systems using LLMs and Knowledge
Graph [0.33554367023486936]
我々は150以上の大規模言語モデル(LLM)の詳細なレビューを提供する包括的ツールを紹介する。
本稿では,LLMの言語機能と知識グラフの構造的ダイナミクスをシームレスに統合する機能的アーキテクチャを提案する。
我々のアーキテクチャは言語学の洗練と実情の厳密さを巧みにブレンドし、ロールベースアクセス制御によるデータセキュリティをさらに強化する。
論文 参考訳(メタデータ) (2023-08-13T22:47:51Z) - Recommender Systems in the Era of Large Language Models (LLMs) [62.0129013439038]
大規模言語モデル(LLM)は自然言語処理(NLP)と人工知能(AI)の分野に革命をもたらした。
我々は, プレトレーニング, ファインチューニング, プロンプティングなどの様々な側面から, LLM を利用したレコメンデータシステムの総合的なレビューを行う。
論文 参考訳(メタデータ) (2023-07-05T06:03:40Z) - Query Understanding in the Age of Large Language Models [6.630482733703617]
大規模言語モデル(LLM)を用いた対話型クエリ書き換えのための汎用フレームワークについて述べる。
我々のフレームワークの重要な側面は、自然言語で検索エンジンによって機械の意図を完全に指定できるリライタの能力である。
この対話型クエリ理解フレームワークに対するオープンな質問とともに、最初の実験を背景としたコンセプトを詳述する。
論文 参考訳(メタデータ) (2023-06-28T08:24:14Z) - Using Textual Interface to Align External Knowledge for End-to-End
Task-Oriented Dialogue Systems [53.38517204698343]
本稿では,外部知識の整合化と冗長なプロセスの排除にテキストインタフェースを用いた新しいパラダイムを提案する。
我々は、MultiWOZ-Remakeを用いて、MultiWOZデータベース用に構築されたインタラクティブテキストインタフェースを含む、我々のパラダイムを実演する。
論文 参考訳(メタデータ) (2023-05-23T05:48:21Z) - Leveraging Large Language Models in Conversational Recommender Systems [9.751217336860924]
Conversational Recommender System (CRS)は、リアルタイムのマルチターン対話を通じてシステムと対話できるようにすることにより、ユーザに対して透明性とコントロールを向上する。
大言語モデル(LLM)は、自然に会話し、世界知識と常識推論を言語理解に組み込むという前例のない能力を示した。
論文 参考訳(メタデータ) (2023-05-13T16:40:07Z) - NLU++: A Multi-Label, Slot-Rich, Generalisable Dataset for Natural
Language Understanding in Task-Oriented Dialogue [53.54788957697192]
NLU++はタスク指向対話(ToD)システムにおける自然言語理解(NLU)のための新しいデータセットである。
NLU++は2つのドメイン(BANKINGとHOTELS)に分割されており、現在一般的に使用されているNLUデータセットよりもいくつかの重要な改善が行われている。
論文 参考訳(メタデータ) (2022-04-27T16:00:23Z) - An Adversarial Learning based Multi-Step Spoken Language Understanding
System through Human-Computer Interaction [70.25183730482915]
対戦型学習に基づく多段階音声言語理解システムを提案する。
我々は,F1の観点で解析性能を少なくとも2.5%向上させることを実証した。
論文 参考訳(メタデータ) (2021-06-06T03:46:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。