論文の概要: Don't Shoot The Breeze: Topic Continuity Model Using Nonlinear Naive Bayes With Attention
- arxiv url: http://arxiv.org/abs/2602.09312v1
- Date: Tue, 10 Feb 2026 01:05:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-11 20:17:43.307015
- Title: Don't Shoot The Breeze: Topic Continuity Model Using Nonlinear Naive Bayes With Attention
- Title(参考訳): 気を散らすな - 非線形ナイーブベイを用いたトピック連続性モデル
- Authors: Shu-Ting Pi, Pradeep Bagavan, Yejia Li, Disha, Qun Liu,
- Abstract要約: トピックの急激なシフトは、ユーザエクスペリエンスの低下と、計算リソースの非効率利用につながる可能性がある。
本稿では、応答が初期会話トピックと一致しているかどうかを評価することを目的としたトピック連続性モデルを提案する。
我々のモデルは、特に長く複雑な会話を扱う場合、伝統的な手法よりも一貫して優れています。
- 参考スコア(独自算出の注目度): 9.863985726025543
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Utilizing Large Language Models (LLM) as chatbots in diverse business scenarios often presents the challenge of maintaining topic continuity. Abrupt shifts in topics can lead to poor user experiences and inefficient utilization of computational resources. In this paper, we present a topic continuity model aimed at assessing whether a response aligns with the initial conversation topic. Our model is built upon the expansion of the corresponding natural language understanding (NLU) model into quantifiable terms using a Naive Bayes approach. Subsequently, we have introduced an attention mechanism and logarithmic nonlinearity to enhance its capability to capture topic continuity. This approach allows us to convert the NLU model into an interpretable analytical formula. In contrast to many NLU models constrained by token limits, our proposed model can seamlessly handle conversations of any length with linear time complexity. Furthermore, the attention mechanism significantly improves the model's ability to identify topic continuity in complex conversations. According to our experiments, our model consistently outperforms traditional methods, particularly in handling lengthy and intricate conversations. This unique capability offers us an opportunity to ensure the responsible and interpretable use of LLMs.
- Abstract(参考訳): さまざまなビジネスシナリオでチャットボットとしてLarge Language Models (LLM)を使用すると、トピックの連続性を維持するという課題がしばしば現れます。
トピックの急激なシフトは、ユーザエクスペリエンスの低下と、計算リソースの非効率利用につながる可能性がある。
本稿では、応答が初期会話トピックと一致しているかどうかを評価することを目的としたトピック継続性モデルを提案する。
本モデルは,自然言語理解モデル(NLU)を,ネイブベイズ法を用いて定量的な用語に拡張したものである。
その後,話題の連続性を捉える能力を高めるために,注意機構と対数非線形性を導入した。
このアプローチにより、NLUモデルを解釈可能な解析式に変換することができる。
トークン制限に制約された多くのNLUモデルとは対照的に,提案モデルでは,任意の長さの会話を線形時間でシームレスに処理することができる。
さらに、注意機構は、複雑な会話におけるトピックの連続性を識別するモデルの能力を大幅に改善する。
我々の実験によると、我々のモデルは伝統的な手法、特に長く複雑な会話を扱う場合、一貫して優れています。
このユニークな能力は、LLMの責任と解釈可能な使用を保証する機会を提供します。
関連論文リスト
- Multi-granularity Contrastive Cross-modal Collaborative Generation for End-to-End Long-term Video Question Answering [53.39158264785098]
ビデオQA(Long-term Video Question Answering)は、視覚的および言語的ブリッジングの課題である。
マルチグラニュラリティ コントラスト クロスモーダル・コラボレーティブ・ジェネレーション・モデル。
論文 参考訳(メタデータ) (2024-10-12T06:21:58Z) - Enhancing Short-Text Topic Modeling with LLM-Driven Context Expansion and Prefix-Tuned VAEs [25.915607750636333]
本稿では,大規模言語モデル(LLM)を利用して,トピックモデリングを適用する前に,短いテキストをより詳細なシーケンスに拡張する手法を提案する。
提案手法は,データ空間が極端である実世界のデータセットに対する広範な実験により,短文のトピックモデリング性能を著しく向上させる。
論文 参考訳(メタデータ) (2024-10-04T01:28:56Z) - SMILE: Zero-Shot Sparse Mixture of Low-Rank Experts Construction From Pre-Trained Foundation Models [85.67096251281191]
我々は、ゼロショットスパースミクチャー(SMILE)と呼ばれるモデル融合に対する革新的なアプローチを提案する。
SMILEは、余分なデータやさらなるトレーニングなしに、ソースモデルをMoEモデルにアップスケーリングできる。
画像分類やテキスト生成タスクなど,さまざまなシナリオに対して,フル微調整とLoRA微調整を用いて広範な実験を行う。
論文 参考訳(メタデータ) (2024-08-19T17:32:15Z) - Verbalized Probabilistic Graphical Modeling [8.524824578426962]
本稿では,自然言語における確率的グラフモデル (PGM) の重要な原理をシミュレートするために,動詞型確率的グラフィカルモデリング (vPGM) を提案する。
vPGMは専門家主導のモデル設計をバイパスし、仮定やデータ不足のシナリオに適している。
以上の結果から,本モデルは信頼性校正とテキスト生成品質を効果的に向上させることが示唆された。
論文 参考訳(メタデータ) (2024-06-08T16:35:31Z) - Visual Chain of Thought: Bridging Logical Gaps with Multimodal
Infillings [61.04460792203266]
本稿では, 逐次データ内の論理的ギャップを埋めるために, 視覚言語による接地を促進させる, チェーン・オブ・シントを利用する新しい手法であるVCoTを紹介する。
本手法は,下流タスクの論理的ギャップを低減するために,一貫した情報と新しい情報を加える合成マルチモーダル埋め込みを生成するために視覚誘導を用いる。
論文 参考訳(メタデータ) (2023-05-03T17:58:29Z) - Advanced Conditional Variational Autoencoders (A-CVAE): Towards
interpreting open-domain conversation generation via disentangling latent
feature representation [15.742077523458995]
本稿では,メソスコピックスケールの特徴的絡み合いを伴う認知的アプローチを通じて,先行知識による生成モデルを活用することを提案する。
本稿では,潜在空間分布の解釈可能性を客観的に評価できるオープンドメイン対話のための新しい指標を提案する。
論文 参考訳(メタデータ) (2022-07-26T07:39:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。