論文の概要: From What to Respond to When to Respond: Timely Response Generation for Open-domain Dialogue Agents
- arxiv url: http://arxiv.org/abs/2506.14285v1
- Date: Tue, 17 Jun 2025 07:56:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-18 17:34:59.385497
- Title: From What to Respond to When to Respond: Timely Response Generation for Open-domain Dialogue Agents
- Title(参考訳): 応答から応答へ:オープンドメイン対話エージェントのタイムリー応答生成
- Authors: Seongbo Jang, Minjin Jeon, Jaehoon Lee, Seonghyeon Lee, Dongha Lee, Hwanjo Yu,
- Abstract要約: TimelyChatベンチマークは、適切な時間間隔を予測し、時間条件の応答を生成する言語モデルの能力を評価する。
我々は,時間的コモンセンス知識グラフからラベルのないイベント知識を活用することで,大規模トレーニングデータセットを構築した。
次に、タイムインターバルを積極的に予測し、それらのインターバルに合わせてタイムリーなレスポンスを生成するために設計された対話エージェントであるTimerを訓練する。
- 参考スコア(独自算出の注目度): 26.437011114518917
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: While research on dialogue response generation has primarily focused on generating coherent responses conditioning on textual context, the critical question of when to respond grounded on the temporal context remains underexplored. To bridge this gap, we propose a novel task called timely dialogue response generation and introduce the TimelyChat benchmark, which evaluates the capabilities of language models to predict appropriate time intervals and generate time-conditioned responses. Additionally, we construct a large-scale training dataset by leveraging unlabeled event knowledge from a temporal commonsense knowledge graph and employing a large language model (LLM) to synthesize 55K event-driven dialogues. We then train Timer, a dialogue agent designed to proactively predict time intervals and generate timely responses that align with those intervals. Experimental results show that Timer outperforms prompting-based LLMs and other fine-tuned baselines in both turn-level and dialogue-level evaluations. We publicly release our data, model, and code.
- Abstract(参考訳): 対話応答生成の研究は、主にテキスト文脈に基づくコヒーレント応答の生成に焦点が当てられているが、時間的文脈に基づく応答のタイミングに関する批判的な疑問は、まだ未解決のままである。
このギャップを埋めるために、タイムリー対話応答生成と呼ばれる新しいタスクを提案し、適切な時間間隔を予測し、時間条件の応答を生成する言語モデルの能力を評価するTimelyChatベンチマークを導入する。
さらに,時間的コモンセンス知識グラフからラベルのないイベント知識を活用して,55Kのイベント駆動対話を合成するために,大規模言語モデル(LLM)を用いた大規模トレーニングデータセットを構築した。
次に、タイムインターバルを積極的に予測し、それらのインターバルに合わせてタイムリーなレスポンスを生成するために設計された対話エージェントであるTimerを訓練する。
実験結果から,Timerはターンレベル評価と対話レベル評価の両方において,プロンプトベースLLMや他の微調整ベースラインよりも優れていた。
私たちは、データ、モデル、コードを公開しています。
関連論文リスト
- Full-Duplex-Bench: A Benchmark to Evaluate Full-duplex Spoken Dialogue Models on Turn-taking Capabilities [93.09944267871163]
FullDuplexBenchは、重要なインタラクティブな振る舞いを体系的に評価するベンチマークである。
ベンチマークコードを公開することによって、音声対話モデリングの進歩と、より自然で魅力的なSDMの開発を目指しています。
論文 参考訳(メタデータ) (2025-03-06T18:59:16Z) - MTPChat: A Multimodal Time-Aware Persona Dataset for Conversational Agents [23.98067169669452]
MTPChatは、対話とペルソナメモリに言語的、視覚的、時間的要素を統合する、タイムアウェアなペルソナ対話データセットである。
時間的次反応予測(TNRP)と時間的接地記憶予測(TGMP)の2つのタスクを提案する。
本稿では,マルチモーダルストリームを効果的に統合し,時間依存を捕捉する適応時間モジュールを特徴とする革新的なフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-09T13:00:53Z) - TReMu: Towards Neuro-Symbolic Temporal Reasoning for LLM-Agents with Memory in Multi-Session Dialogues [13.638344516302851]
マルチセッション対話における時間的推論は、過小評価されている重要な課題である。
本稿では,LoCoMoからの対話を増強し,複数選択QAを作成することで,新しいベンチマークを構築する手法を提案する。
また,LLMエージェントの時間的推論能力の向上を目的とした新しいフレームワークであるTReMuについても紹介する。
論文 参考訳(メタデータ) (2025-02-03T18:58:19Z) - X-TURING: Towards an Enhanced and Efficient Turing Test for Long-Term Dialogue Agents [56.64615470513102]
チューリングテストは、自然言語の会話においてAIが人間のような振る舞いを示すかどうかを調べる。
従来の設定では、各参加者は一度に1つのメッセージに制限される。
本稿では,textitburstダイアログパターンを用いて,元のテストを強化するtextbftextscX-Turingを提案する。
論文 参考訳(メタデータ) (2024-08-19T09:57:28Z) - Evaluating Very Long-Term Conversational Memory of LLM Agents [95.84027826745609]
我々は,高品質で長期的な対話を生成するための,マシン・ヒューマン・パイプラインを導入する。
我々は、各エージェントに画像の共有と反応の能力を持たせる。
生成した会話は、長距離一貫性のために人間のアノテーションによって検証され、編集される。
論文 参考訳(メタデータ) (2024-02-27T18:42:31Z) - Mind the Gap Between Conversations for Improved Long-Term Dialogue
Generation [21.109006148673846]
GapChatは、セッション間の時間が異なるマルチセッション対話データセットである。
データセットはリアルタイムに構築されているが、話者の生活における出来事の進行をシミュレートして、長い時間間隔で発生する現実的な対話を生成する。
時間認識モデルは、選択したトピックと会話から得られる情報との関係を判断する指標において、より良いパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-10-24T00:12:38Z) - PICK: Polished & Informed Candidate Scoring for Knowledge-Grounded
Dialogue Systems [59.1250765143521]
現在の知識接地対話システムは、生成された応答を人間に好まれる品質に合わせるのに失敗することが多い。
我々は,世代別再描画フレームワークであるPolseed & Informed Candidate Scoring (PICK)を提案する。
対話履歴に関連性を維持しつつ,より忠実な応答を生成するためのPICKの有効性を示す。
論文 参考訳(メタデータ) (2023-09-19T08:27:09Z) - TIMEDIAL: Temporal Commonsense Reasoning in Dialog [43.24596551545824]
本稿では,対話における時間的推論能力について,事前学習した言語モデルについて検討する。
我々は、TIME-DIALを1.1K以上の精巧なダイアログで複数選択のクローゼタスクとして定式化する。
実証的な結果は、最高のパフォーマンスモデルでさえ、人間よりもこのタスクに苦労していることを示している。
論文 参考訳(メタデータ) (2021-06-08T17:59:21Z) - Learning an Effective Context-Response Matching Model with
Self-Supervised Tasks for Retrieval-based Dialogues [88.73739515457116]
我々は,次のセッション予測,発話復元,不整合検出,一貫性判定を含む4つの自己教師型タスクを導入する。
我々はPLMに基づく応答選択モデルとこれらの補助タスクをマルチタスク方式で共同で訓練する。
実験結果から,提案した補助的自己教師型タスクは,多ターン応答選択において大きな改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-09-14T08:44:46Z) - Learning an Unreferenced Metric for Online Dialogue Evaluation [53.38078951628143]
本稿では,大規模な事前学習言語モデルを用いて発話の潜在表現を抽出する非参照自動評価指標を提案する。
提案手法は,オンライン環境でのアノテーションと高い相関性を実現すると同時に,推論時に比較に真の応答を必要としないことを示す。
論文 参考訳(メタデータ) (2020-05-01T20:01:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。