論文の概要: Real-Time Deadlines Reveal Temporal Awareness Failures in LLM Strategic Dialogues
- arxiv url: http://arxiv.org/abs/2601.13206v1
- Date: Mon, 19 Jan 2026 16:31:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.971443
- Title: Real-Time Deadlines Reveal Temporal Awareness Failures in LLM Strategic Dialogues
- Title(参考訳): LLMストラテジック対話における時間的時間的意識障害のリアルタイムデッドライン
- Authors: Neil K. R. Sehgal, Sharath Chandra Guntuku, Lyle Ungar,
- Abstract要約: 大規模言語モデルは離散時間でテキストトークン・バイ・トークンを生成する。
現在のLLMアーキテクチャと評価プロトコルは、リアルタイムの期限下で時間的認識をテストすることは滅多にない。
- 参考スコア(独自算出の注目度): 11.428418884822769
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) generate text token-by-token in discrete time, yet real-world communication, from therapy sessions to business negotiations, critically depends on continuous time constraints. Current LLM architectures and evaluation protocols rarely test for temporal awareness under real-time deadlines. We use simulated negotiations between paired agents under strict deadlines to investigate how LLMs adjust their behavior in time-sensitive settings. In a control condition, agents know only the global time limit. In a time-aware condition, they receive remaining-time updates at each turn. Deal closure rates are substantially higher (32\% vs. 4\% for GPT-5.1) and offer acceptances are sixfold higher in the time-aware condition than in the control, suggesting LLMs struggle to internally track elapsed time. However, the same LLMs achieve near-perfect deal closure rates ($\geq$95\%) under turn-based limits, revealing the failure is in temporal tracking rather than strategic reasoning. These effects replicate across negotiation scenarios and models, illustrating a systematic lack of LLM time awareness that will constrain LLM deployment in many time-sensitive applications.
- Abstract(参考訳): 大規模言語モデル(LLM)は、セラピーセッションからビジネス交渉まで、個別の時間でテキストトークン・バイ・トークンを生成する。
現在のLLMアーキテクチャと評価プロトコルは、リアルタイムの期限下で時間的認識をテストすることは滅多にない。
我々は、厳密な期限の下で、ペアエージェント間のシミュレーション交渉を使用して、LLMが時間に敏感な環境でどのように振舞うかを調査する。
制御条件では、エージェントはグローバルな時間制限のみを知っている。
タイムアウェアの状態では、各ターンで更新を継続する。
ディール閉鎖率はかなり高く(GPT-5.1では32\%対4\%)、許容条件は制御条件よりも6倍高く、LSMは内部経過時間を追跡するのに苦慮している。
しかし、同じLLMはターンベースの制限の下でほぼ完全な取引停止率(95.5%)を達成し、失敗は戦略的理由よりも時間的追跡にあることを明らかにした。
これらの効果は交渉シナリオやモデルにまたがって再現され、LLMの時間意識の体系的な欠如が示され、多くの時間に敏感なアプリケーションにおけるLLMのデプロイメントを制限します。
関連論文リスト
- Enhancing Temporal Awareness in LLMs for Temporal Point Processes [53.596733432865626]
時間的ポイントプロセス(TPP)は、時間とともにイベントを分析するのに不可欠である。
TPP-TALは、大規模な言語モデルにおける時間的推論を強化するために設計された新しいプラグイン・アンド・プレイフレームワークである。
TPP-TALは時間的確率推定と事象予測精度を大幅に改善した。
論文 参考訳(メタデータ) (2025-12-29T03:01:24Z) - Temporal Referential Consistency: Do LLMs Favor Sequences Over Absolute Time References? [21.90468150326666]
LLM(Large Language Model)は、知識ソースの代替品である。
LLMは現実的に正確でなければならないし、時間次元にわたって一貫性を示す必要がある。
この重要な要件にもかかわらず、LLMの時間的整合性を確保する努力は依然として不十分である。
論文 参考訳(メタデータ) (2025-10-17T10:33:48Z) - Federated Learning-Enabled Hybrid Language Models for Communication-Efficient Token Transmission [87.68447072141402]
ハイブリッド言語モデル(HLM)は、エッジデバイス上でのSLM(Small Language Model)の低レイテンシ効率と、集中型サーバ上でのLLM(Large Language Model)の高精度を組み合わせたものである。
我々は、不確実性を考慮した推論とフェデレートラーニング(FL)を統合する通信効率の高いHLMフレームワークであるFedHLMを提案する。
論文 参考訳(メタデータ) (2025-06-30T02:56:11Z) - Discrete Minds in a Continuous World: Do Language Models Know Time Passes? [44.46759661130471]
大規模言語モデル(LLM)は、イベントの順序付けや時間推定といった時間的推論のタスクで優れています。
LLMが時間の経過を知覚し、それに応じて意思決定に適応するかどうかを検討する。
論文 参考訳(メタデータ) (2025-06-06T06:37:01Z) - LLM-PS: Empowering Large Language Models for Time Series Forecasting with Temporal Patterns and Semantics [56.99021951927683]
Time Series Forecasting (TSF) は、金融計画や健康モニタリングなど、多くの現実世界のドメインにおいて重要である。
既存のLarge Language Models (LLM) は通常、時系列データ固有の特性を無視するため、非最適に実行する。
時系列データから基本的なtextitPatterns と有意義な textitSemantics を学習し,TLF のための LLM-PS を提案する。
論文 参考訳(メタデータ) (2025-03-12T11:45:11Z) - Control Large Language Models via Divide and Conquer [94.48784966256463]
本稿では,Lexically Constrained Generation(LCG)に着目し,大規模言語モデル(LLM)のプロンプトベース制御による制御可能生成について検討する。
我々は,レキシカル制約を満たすためのLLMの性能を,プロンプトベース制御により評価し,下流アプリケーションでの有効性を検証した。
論文 参考訳(メタデータ) (2024-10-06T21:20:06Z) - UnSeenTimeQA: Time-Sensitive Question-Answering Beyond LLMs' Memorization [34.257914212541394]
本稿では,新しいデータ汚染のない質問応答ベンチマークUnSeenTimeQAを紹介する。
既存のTSQAベンチマークとは異なるのは、現実世界に根ざしたWeb検索可能なクエリを避けることだ。
大きな言語モデル(LLM)は、訓練前の段階で得られた事実知識に依存することなく、真の時間的推論を行う必要がある。
論文 参考訳(メタデータ) (2024-07-03T22:02:07Z) - Beyond the Turn-Based Game: Enabling Real-Time Conversations with Duplex Models [66.24055500785657]
従来のターンベースのチャットシステムは、ユーザが応答を生成している間に、システムが言葉で対話することを防ぐ。
これらの制限を克服するため,既存のLCMをユーザを聴きながら出力を生成し,ユーザに対して即時フィードバックを提供する。
クエリとレスポンスの時間スライスを交互に行うデータセットを構築し、インスタントインタラクションにおける典型的なフィードバックタイプをカバーする。
論文 参考訳(メタデータ) (2024-06-22T03:20:10Z) - Living in the Moment: Can Large Language Models Grasp Co-Temporal Reasoning? [70.19200858203388]
時間的推論は、世界を理解するための大きな言語モデルの基本である。
CoTempQAは4つの時間的シナリオを含むベンチマークである。
実験の結果,LLMの性能と人間レベルの推論との間に大きなギャップがあることが判明した。
論文 参考訳(メタデータ) (2024-06-13T12:56:21Z) - Are Large Language Models Temporally Grounded? [38.481606493496514]
文章を記述したLarge Language Model (LLM) を提供する。
イベントの構造と持続時間に関する常識的な知識に関して、それらを調査する。
これらの能力を反映した3つの課題に対して,最先端のLCMを評価した。
論文 参考訳(メタデータ) (2023-11-14T18:57:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。