論文の概要: Chat-Ghosting: A Comparative Study of Methods for Auto-Completion in Dialog Systems
- arxiv url: http://arxiv.org/abs/2507.05940v1
- Date: Tue, 08 Jul 2025 12:38:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-09 16:34:38.048002
- Title: Chat-Ghosting: A Comparative Study of Methods for Auto-Completion in Dialog Systems
- Title(参考訳): Chat-Ghosting:ダイアログシステムにおけるオートコンプリート手法の比較検討
- Authors: Sandeep Mishra, Anubhab Mandal, Bishal Santra, Tushar Abhishek, Pawan Goyal, Manish Gupta,
- Abstract要約: Ghostingは、インラインクエリの自動補完のために、ユーザの意図したテキスト入力を予測する機能である。
不完全なクエリ(またはプレフィックス)の完了を提案することで、ゴーストリングは、遅いタイピング速度、障害、あるいは限られた言語習熟度を持つユーザを支援する。
ゴーストを利用したチャットベースのシステムの普及にもかかわらず、このChat-Ghostingの難題はNLP/ML研究コミュニティからはほとんど注目を集めていない。
- 参考スコア(独自算出の注目度): 11.952998882009785
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Ghosting, the ability to predict a user's intended text input for inline query auto-completion, is an invaluable feature for modern search engines and chat interfaces, greatly enhancing user experience. By suggesting completions to incomplete queries (or prefixes), ghosting aids users with slow typing speeds, disabilities, or limited language proficiency. Ghosting is a challenging problem and has become more important with the ubiquitousness of chat-based systems like ChatGPT, Copilot, etc. Despite the increasing prominence of chat-based systems utilizing ghosting, this challenging problem of Chat-Ghosting has received little attention from the NLP/ML research community. There is a lack of standardized benchmarks and relative performance analysis of deep learning and non-deep learning methods. We address this through an open and thorough study of this problem using four publicly available dialog datasets: two human-human (DailyDialog and DSTC7-Ubuntu) and two human-bot (Open Assistant and ShareGPT). We experiment with various existing query auto-completion methods (using tries), n-gram methods and deep learning methods, with and without dialog context. We also propose a novel entropy-based dynamic early stopping strategy. Our analysis finds that statistical n-gram models and tries outperform deep learning based models in terms of both model performance and inference efficiency for seen prefixes. For unseen queries, neural models like T5 and Phi-2 lead to better results. Adding conversational context leads to significant improvements in ghosting quality, especially for Open-Assistant and ShareGPT. We make code and data publicly available
- Abstract(参考訳): インラインクエリの自動補完のためにユーザの意図したテキスト入力を予測する機能であるGhostingは、現代の検索エンジンやチャットインターフェースにとって重要な機能であり、ユーザエクスペリエンスを大幅に向上させる。
不完全なクエリ(またはプレフィックス)の完了を提案することで、ゴーストリングは、遅いタイピング速度、障害、あるいは限られた言語習熟度を持つユーザを支援する。
ゴースト化は難しい問題であり、チャットベースのChatGPTやCopilotなどのユビキタス性によって、より重要になっている。
ゴーストを利用したチャットベースのシステムの普及にもかかわらず、このChat-Ghostingの難題はNLP/ML研究コミュニティからはほとんど注目を集めていない。
ディープラーニングと非ディープラーニングの手法には、標準化されたベンチマークと相対的なパフォーマンス分析が欠如している。
我々は,この問題を,2つの人間(DailyDialogとDSTC7-Ubuntu)と2つの人間ボット(Open AssistantとShareGPT)の4つの公開ダイアログデータセットを用いて,オープンかつ徹底的な研究を通じて解決する。
我々は,既存の問合せ自動補完手法(tryを使用),n-gram法,深層学習法を,対話コンテキストと無関係に実験した。
また,エントロピーに基づく動的早期停止戦略を提案する。
分析の結果, 統計的n-gramモデルと深層学習に基づくモデルでは, 参照プレフィックスのモデル性能と推論効率の両面において, 性能が優れていることがわかった。
目に見えないクエリの場合、T5やPhi-2のようなニューラルモデルはより良い結果をもたらす。
会話コンテキストを追加することで、特にOpen-AssistantとShareGPTのゴースト品質が大幅に向上する。
私たちはコードとデータを公開します
関連論文リスト
- Are Chatbots Reliable Text Annotators? Sometimes [0.0]
ChatGPTはクローズドソース製品で、透明性、コスト、データ保護に関して大きな欠点があります。
オープンソースの(OS)大規模言語モデル(LLM)の最近の進歩は、これらの欠点のない代替手段を提供する。
論文 参考訳(メタデータ) (2023-11-09T22:28:14Z) - Can You Follow Me? Testing Situational Understanding in ChatGPT [17.52769657390388]
situational understanding (SU)は、人間のようなAIエージェントにとって重要な能力である。
チャット指向モデルにおけるSUテストのための新しい合成環境を提案する。
タスクの基本的な単純さにもかかわらず、モデルの性能は正しい環境状態を維持することができないことを反映している。
論文 参考訳(メタデータ) (2023-10-24T19:22:01Z) - SSP: Self-Supervised Post-training for Conversational Search [63.28684982954115]
本稿では,対話型検索モデルを効率的に初期化するための3つの自己教師型タスクを備えた学習後パラダイムであるフルモデル(モデル)を提案する。
提案手法の有効性を検証するために,CAsT-19 と CAsT-20 の2つのベンチマークデータセットを用いて,会話検索タスクにモデルにより訓練後の会話エンコーダを適用した。
論文 参考訳(メタデータ) (2023-07-02T13:36:36Z) - To ChatGPT, or not to ChatGPT: That is the question! [78.407861566006]
本研究は,ChatGPT検出における最新の手法を包括的かつ現代的に評価するものである。
我々は、ChatGPTと人間からのプロンプトからなるベンチマークデータセットをキュレートし、医療、オープンQ&A、ファイナンスドメインからの多様な質問を含む。
評価の結果,既存の手法ではChatGPT生成内容を効果的に検出できないことがわかった。
論文 参考訳(メタデータ) (2023-04-04T03:04:28Z) - ChatGPT: Jack of all trades, master of none [4.693597927153063]
OpenAIはChat Generative Pre-trained Transformer (ChatGPT)をリリースした。
25種類のNLPタスクにおけるChatGPTの機能について検討した。
われわれはChatGPTとGPT-4のプロンプト処理を自動化し,49k以上の応答を解析した。
論文 参考訳(メタデータ) (2023-02-21T15:20:37Z) - A Multitask, Multilingual, Multimodal Evaluation of ChatGPT on
Reasoning, Hallucination, and Interactivity [79.12003701981092]
8種類の共通NLPアプリケーションタスクをカバーする23のデータセットを用いてChatGPTの広範な技術的評価を行う。
これらのデータセットと、新たに設計されたマルチモーダルデータセットに基づいて、ChatGPTのマルチタスク、マルチリンガル、マルチモーダルの側面を評価する。
ChatGPTの精度は平均63.41%で、論理的推論、非テキスト的推論、コモンセンス推論の10の異なる推論カテゴリで正確である。
論文 参考訳(メタデータ) (2023-02-08T12:35:34Z) - How would Stance Detection Techniques Evolve after the Launch of ChatGPT? [5.756359016880821]
2022年11月30日、新しい訓練済み言語モデルであるchatGPTが発売された。
ChatGPTは、SemEval-2016やP-Stanceといった一般的なデータセットに対して、SOTAまたは同様のパフォーマンスを達成することができる。
ChatGPTは、NLPのスタンス検出タスクにおいて、最高のAIモデルになる可能性がある。
論文 参考訳(メタデータ) (2022-12-30T05:03:15Z) - Few-Shot Bot: Prompt-Based Learning for Dialogue Systems [58.27337673451943]
ごく少数の例を使って会話を学ぶことは、会話型AIにおける大きな課題である。
現在の最良の会話モデルは、良いチャットシャッター(例:BlenderBot)またはゴール指向システム(例:MinTL)である。
グラデーションベースの微調整を必要とせず、学習の唯一の源としていくつかの例を用いるプロンプトベースの数ショット学習を提案する。
論文 参考訳(メタデータ) (2021-10-15T14:36:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。