論文の概要: Time-Continuous Modeling for Temporal Affective Pattern Recognition in LLMs
- arxiv url: http://arxiv.org/abs/2601.12341v1
- Date: Sun, 18 Jan 2026 10:16:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.584211
- Title: Time-Continuous Modeling for Temporal Affective Pattern Recognition in LLMs
- Title(参考訳): LLMにおける時間連続モデリングによる時間的影響パターン認識
- Authors: Rezky Kam, Coddy N. Siswanto,
- Abstract要約: 本稿では,物理インフォームドニューラルネットワークを活用した実世界の感情動態と文脈内学習を模倣するLLMのデータセットと概念的枠組みを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces a dataset and conceptual framework for LLMs to mimic real world emotional dynamics through time and in-context learning leveraging physics-informed neural network, opening a possibility for interpretable dialogue modeling.
- Abstract(参考訳): 本稿では,物理インフォームドニューラルネットワークを利用した実世界の感情力学と文脈内学習を模倣し,解釈可能な対話モデルを構築するためのデータセットと概念的枠組みを提案する。
関連論文リスト
- LLM Interpretability with Identifiable Temporal-Instantaneous Representation [18.671694445771113]
本稿では,大規模言語モデルに特化して設計された時間的因果表現学習フレームワークを提案する。
提案手法は,実世界の複雑性に合わせてスケールした合成データセットに対して,理論的保証と有効性を示す。
論文 参考訳(メタデータ) (2025-09-27T14:14:41Z) - TAMMs: Temporal-Aware Multimodal Model for Satellite Image Change Understanding and Forecasting [22.01157165112828]
我々は、単一のMLLM拡散アーキテクチャにおいて、TDとFSIFを共同で実行するように設計された最初の統合フレームワークであるTAMMを紹介する。
TAMMは2つの重要なイノベーションを紹介している: 時間適応モジュール(TAM)は、凍ったMLLMの長距離力学の理解能力を強化し、セマンティック・フューズド・コントロール・インジェクション(SFCI)機構は、この変化の理解をきめ細かな生成制御に変換する。
大規模な実験では、TAMMは両方のタスクにおける最先端の専門家のベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2025-06-23T17:26:16Z) - LLM-PS: Empowering Large Language Models for Time Series Forecasting with Temporal Patterns and Semantics [56.99021951927683]
Time Series Forecasting (TSF) は、金融計画や健康モニタリングなど、多くの現実世界のドメインにおいて重要である。
既存のLarge Language Models (LLM) は通常、時系列データ固有の特性を無視するため、非最適に実行する。
時系列データから基本的なtextitPatterns と有意義な textitSemantics を学習し,TLF のための LLM-PS を提案する。
論文 参考訳(メタデータ) (2025-03-12T11:45:11Z) - Exploring the Role of Explicit Temporal Modeling in Multimodal Large Language Models for Video Understanding [23.477954901326978]
既存のアプローチでは、デコーダのみに依存する暗黙の時間的モデリングと、補助的な時間的エンコーダを使用する明示的な時間的モデリングが採用されている。
適応性のある時間場とトークン圧縮比を持つフレキシブルな時間的モデリングを実現するための明示的時空間(STE)を提案する。
本研究は、ビデオMLLMの進行に有効な洞察を提供する、明示的な時間的モデリングの重要な役割を強調した。
論文 参考訳(メタデータ) (2025-01-28T08:30:58Z) - Integrate Temporal Graph Learning into LLM-based Temporal Knowledge Graph Model [48.15492235240126]
時間的知識グラフ予測は、歴史における観測された事象に基づいて将来の事象を予測することを目的としている。
既存の手法では、検索した歴史的事実や静的グラフ表現をLarge Language Models (LLMs)に統合している。
LLMに基づく時間知識グラフモデルに時間グラフ学習を統合するための新しいフレームワークTGL-LLMを提案する。
論文 参考訳(メタデータ) (2025-01-21T06:12:49Z) - Language Model as Visual Explainer [72.88137795439407]
本稿では,木構造言語学的説明を用いた視覚モデル解釈のための体系的アプローチを提案する。
提案手法は,属性を付与した木の形で人間に理解可能な説明を提供する。
提案手法の有効性を確認するため,新しいベンチマークを導入し,厳密な評価を行う。
論文 参考訳(メタデータ) (2024-12-08T20:46:23Z) - Towards Modeling Learner Performance with Large Language Models [7.002923425715133]
本稿では,LLMのパターン認識とシーケンスモデリング機能が,知識追跡の領域にまで拡張できるかどうかを検討する。
ゼロショットプロンプト(ゼロショットプロンプト)とモデル微調整(モデル微調整)の2つの手法と,既存のLLM以外の知識追跡手法を比較した。
LLMベースのアプローチは最先端のパフォーマンスを達成しないが、微調整のLLMは素早いベースラインモデルの性能を上回り、標準的なベイズ的知識追跡手法と同等に機能する。
論文 参考訳(メタデータ) (2024-02-29T14:06:34Z) - Sparsity-Guided Holistic Explanation for LLMs with Interpretable
Inference-Time Intervention [53.896974148579346]
大規模言語モデル(LLM)は、様々な自然言語処理領域において前例のないブレークスルーを達成した。
LLMの謎的なブラックボックスの性質は、透過的で説明可能なアプリケーションを妨げる、解釈可能性にとって重要な課題である。
本稿では,LLMの全体的解釈を提供することを目的として,スポーシティ誘導技術に係わる新しい方法論を提案する。
論文 参考訳(メタデータ) (2023-12-22T19:55:58Z) - Large Language Models Are Latent Variable Models: Explaining and Finding
Good Demonstrations for In-Context Learning [104.58874584354787]
近年,事前学習型大規模言語モデル (LLM) は,インコンテキスト学習(in-context learning)として知られる推論時少数ショット学習能力を実現する上で,顕著な効率性を示している。
本研究では,現実のLLMを潜在変数モデルとみなし,ベイズレンズによる文脈内学習現象を考察することを目的とする。
論文 参考訳(メタデータ) (2023-01-27T18:59:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。