論文の概要: Prepared mind, fast response: A temporal decoupling framework for adaptive knowledge orchestration in open-domain dialogue
- arxiv url: http://arxiv.org/abs/2510.08175v1
- Date: Thu, 09 Oct 2025 13:01:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:15.082072
- Title: Prepared mind, fast response: A temporal decoupling framework for adaptive knowledge orchestration in open-domain dialogue
- Title(参考訳): 心の準備, 迅速な応答:オープンドメイン対話における適応的知識編成のための時間的疎結合フレームワーク
- Authors: Jinling Gan, Churong Liang, Runnan Li,
- Abstract要約: レイテンシ品質のトレードオフは、オープンドメイン対話AIシステムにおける基本的な制約である。
本稿では,非同期知識オーケストレーションによる矛盾を解消する時間的疎結合フレームワークを提案する。
TopiOCQAの評価結果は、PMFRが重み付き同期ベースラインに匹敵する応答品質を維持しながら、95.3%のレイテンシ低減を実現していることを示している。
- 参考スコア(独自算出の注目度): 1.1788684008907848
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The latency-quality tradeoff is a fundamental constraint in open-domain dialogue AI systems, since comprehensive knowledge access necessitates prohibitive response delays. Contemporary approaches offer two inadequate solutions: lightweight instruct models achieve sub-second latency but lack reasoning depth, while tool-augmented ReAct agents enhance factuality through external knowledge at the cost of synchronous execution that blocks interaction during retrieval processes. PMFR is thus proposed, with a temporal decoupling framework that fundamentally resolves the contradiction through asynchronous knowledge orchestration. PMFR employs three coordinated components: (1) a Knowledge Adequacy Evaluator for real-time sufficiency assessment, (2) a Lightweight Response Generator for immediate user interaction, and (3) an Asynchronous Knowledge Refinement Agent for background knowledge enhancement. This architecture maintains continuous conversational flow while progressively enriching knowledge coverage through intelligent triggering mechanisms. Evaluation results on TopiOCQA demonstrate PMFR outperforms brute-force scaling: PMFR achieves 95.3% latency reduction (23.38s -> 1.09s) while preserving response quality comparable to heavyweight synchronous baselines (GEval-C: 0.613 vs. 0.620).
- Abstract(参考訳): 包括的な知識アクセスは、禁止的な応答遅延を必要とするため、レイテンシ品質のトレードオフは、オープンドメインの対話AIシステムの基本的制約である。
軽量な命令モデルでは、サブ秒のレイテンシを実現するが、推論の深さが欠如しているのに対して、ツール拡張されたReActエージェントは、検索プロセス間のインタラクションをブロックする同期実行のコストで、外部知識を通じて事実性を向上する。
PMFRは非同期知識オーケストレーションによる矛盾を根本的に解消する時間的疎結合フレームワークである。
PMFRは,(1)リアルタイムの満足度評価のための知識充実度評価器,(2)即時ユーザインタラクションのための軽量応答生成器,(3)バックグラウンド知識向上のための非同期知識強化エージェントの3つの協調したコンポーネントを採用している。
このアーキテクチャは、インテリジェントなトリガー機構を通じて、知識カバレッジを徐々に充実させながら、継続的な会話の流れを維持します。
PMFRは95.3%のレイテンシ削減(23.38s -> 1.09s)を実現し、応答品質はヘビー級同期ベースライン(GEval-C: 0.613 vs. 0.620)に匹敵する。
関連論文リスト
- STARec: An Efficient Agent Framework for Recommender Systems via Autonomous Deliberate Reasoning [54.28691219536054]
我々は、自律的な熟考的推論機能を備えたレコメンデータシステムを支援する、ゆっくり考えられた拡張エージェントフレームワークSTARecを紹介する。
我々は,先進的推論モデルと嗜好整合型報酬形成から構造化知識の蒸留を組み合わせた2段階のパラダイムであるアンカー強化訓練を開発する。
MovieLens 1MとAmazon CDsベンチマークの実験では、STARecは最先端のベースラインと比較して、大幅なパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2025-08-26T08:47:58Z) - Pangu Embedded: An Efficient Dual-system LLM Reasoner with Metacognition [95.54406667705999]
Pangu Embeddedは、Ascend Neural Processing Units (NPU) 上で開発された効率的なLarge Language Model (LLM) 推論器である。
既存の推論最適化 LLM でよく見られる計算コストと推論遅延の問題に対処する。
単一の統一モデルアーキテクチャ内で、迅速な応答と最先端の推論品質を提供する。
論文 参考訳(メタデータ) (2025-05-28T14:03:02Z) - Automatic Dataset Generation for Knowledge Intensive Question Answering Tasks [10.562940259841623]
本稿では,知識集約型QAタスクにおけるLarge Language Models(LLMs)の拡張手法を提案する。
提案システムは,自動QAジェネレータとモデルファインタナーを備え,パープレキシティ,ROUGE,BLEU,BERTScoreを用いて評価する。
実験は、適応型人工知能(AI)システムの開発において、論理的コヒーレンスと事実的精度の改善を示す。
論文 参考訳(メタデータ) (2025-05-20T11:16:29Z) - Reinforced Interactive Continual Learning via Real-time Noisy Human Feedback [59.768119380109084]
本稿では,AIモデルがリアルタイムフィードバックから新たなスキルを動的に学習する対話型連続学習パラダイムを提案する。
大規模言語モデル(LLM)を活用した強化型対話型連続学習フレームワークRiCLを提案する。
我々のRiCLアプローチは、最先端のオンライン連続学習とノイズラベル学習の既存の組み合わせを大幅に上回っている。
論文 参考訳(メタデータ) (2025-05-15T03:22:03Z) - Enabling Collaborative Parametric Knowledge Calibration for Retrieval-Augmented Vision Question Answering [16.14877145354785]
KB-VQA (Vision Question Answering) システムは、外部知識ベースから取得した知識を用いて複雑な視覚的な質問に対処する。
協調的なパラメトリック知識キャリブレーションを用いた検索強化VQAフレームワークを提案する。
提案手法は,最先端モデルと競合する性能を実現し,精度が4.7%向上した。
論文 参考訳(メタデータ) (2025-04-05T05:42:12Z) - On the Role of Feedback in Test-Time Scaling of Agentic AI Workflows [71.92083784393418]
エージェントAI(自律的な計画と行動を行うシステム)は広く普及しているが、複雑なタスクにおけるタスクの成功率は低いままである。
推論時のアライメントは、サンプリング、評価、フィードバックの3つのコンポーネントに依存します。
本稿では,様々な形態の批判から抽出されたフィードバックを繰り返し挿入するIterative Agent Decoding(IAD)を紹介する。
論文 参考訳(メタデータ) (2025-04-02T17:40:47Z) - Federated Q-Learning with Reference-Advantage Decomposition: Almost Optimal Regret and Logarithmic Communication Cost [4.895986534376972]
本稿では,FedQ-Advantageと呼ばれる新しいモデルフリーなフェデレーションQ-ラーニングアルゴリズムを提案する。
我々のアルゴリズムは対数通信コストを低くするだけでなく、時間的地平線が十分に大きい場合と比較して、対数係数に縛られた情報とほぼ直線的後悔のスピードアップに到達して、ほぼ最適の後悔を達成する。
論文 参考訳(メタデータ) (2024-05-29T06:26:52Z) - Asynchronous Federated Learning with Bidirectional Quantized
Communications and Buffered Aggregation [39.057968279167966]
Asynchronous Federated Learning with Buffered Aggregation (FedBuff)は、その効率性と高いスケーラビリティで知られている最先端のアルゴリズムである。
直接量子化によるエラー伝搬を回避するために,サーバとクライアント間で共有された"隠れ"状態を確立する量子化スキームを備えた新しいアルゴリズム(QAFeL)を提案する。
論文 参考訳(メタデータ) (2023-08-01T03:50:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。