論文の概要: A Semantic Parsing Framework for End-to-End Time Normalization
- arxiv url: http://arxiv.org/abs/2507.06450v1
- Date: Tue, 08 Jul 2025 23:30:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-10 17:37:43.419054
- Title: A Semantic Parsing Framework for End-to-End Time Normalization
- Title(参考訳): 終端時間正規化のための意味解析フレームワーク
- Authors: Xin Su, Sungduk Yu, Phillip Howard, Steven Bethard,
- Abstract要約: 時間正規化は、自然言語の時間表現を機械可読表現に変換するタスクである。
ISO-TimeMLスキーマの制限表現に基づく従来のシステム。
SCATEフレームワークを基盤としたコード生成タスクとして,時間正規化の新たな定式化を導入する。
- 参考スコア(独自算出の注目度): 10.472379345636845
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Time normalization is the task of converting natural language temporal expressions into machine-readable representations. It underpins many downstream applications in information retrieval, question answering, and clinical decision-making. Traditional systems based on the ISO-TimeML schema limit expressivity and struggle with complex constructs such as compositional, event-relative, and multi-span time expressions. In this work, we introduce a novel formulation of time normalization as a code generation task grounded in the SCATE framework, which defines temporal semantics through symbolic and compositional operators. We implement a fully executable SCATE Python library and demonstrate that large language models (LLMs) can generate executable SCATE code. Leveraging this capability, we develop an automatic data augmentation pipeline using LLMs to synthesize large-scale annotated data with code-level validation. Our experiments show that small, locally deployable models trained on this augmented data can achieve strong performance, outperforming even their LLM parents and enabling practical, accurate, and interpretable time normalization.
- Abstract(参考訳): 時間正規化は、自然言語の時間表現を機械可読表現に変換するタスクである。
情報検索、質問応答、臨床的意思決定において、多くの下流の応用を支えている。
ISO-TimeMLスキーマに基づく従来のシステムでは、表現性やコンポジション、イベント相対性、マルチスパン時間表現といった複雑な構造に悩まされている。
そこで本研究では,SCATEフレームワークに基礎を置くコード生成タスクとして,時間正規化の新たな定式化を導入し,記号的および構成的演算子による時間意味論を定義する。
完全に実行可能なSCATE Pythonライブラリを実装し、大規模言語モデル(LLM)が実行可能なSCATEコードを生成することを実証する。
この機能を活用することで,LLMを用いた自動データ拡張パイプラインを開発し,コードレベルの検証による大規模アノテートデータを合成する。
我々の実験は、この拡張データに基づいて訓練された小型でローカルにデプロイ可能なモデルが、強力な性能を実現し、LLMの両親よりも優れ、実用的、正確、解釈可能な時間正規化を可能にしていることを示している。
関連論文リスト
- Language-TPP: Integrating Temporal Point Processes with Language Models for Event Analysis [23.27520345839548]
テンポラルポイントプロセス(TPP)は、イベントシーケンスモデリングに広く用いられているが、リッチテキストのイベント記述を効果的に組み込むのに苦労することが多い。
本稿では,TPPをLLM(Large Language Models)と統合した統合フレームワークであるLanguage-TPPを紹介した。
論文 参考訳(メタデータ) (2025-02-11T00:09:45Z) - $\forall$uto$\exists$val: Autonomous Assessment of LLMs in Formal Synthesis and Interpretation Tasks [21.12437562185667]
本稿では,形式構文を自然言語に翻訳する際のLLM評価のスケールアップ手法を提案する。
我々は、文脈自由文法(CFG)を用いて、その場で配布外のデータセットを生成する。
我々はまた、このパラダイムの実現可能性と拡張性を示すために、複数のSOTAクローズドおよびオープンソースLCMの評価を行う。
論文 参考訳(メタデータ) (2024-03-27T08:08:00Z) - AutoTimes: Autoregressive Time Series Forecasters via Large Language Models [67.83502953961505]
AutoTimesは時系列を言語トークンの埋め込み空間に投影し、任意の長さで将来予測を生成する。
時系列をプロンプトとして定式化し、ルックバックウィンドウを越えて予測のコンテキストを拡張する。
AutoTimesは、トレーニング可能なパラメータが0.1%、トレーニング/推論のスピードアップが5ドル以上で最先端を実現している。
論文 参考訳(メタデータ) (2024-02-04T06:59:21Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z) - Large Language Models as General Pattern Machines [64.75501424160748]
我々は,事前訓練された大規模言語モデル (LLM) が,複雑なトークンシーケンスを自動回帰的に完了することを示す。
驚いたことに、語彙からランダムにサンプリングされたトークンを用いてシーケンスが表現された場合でも、パターン完了の習熟度を部分的に保持することができる。
本研究では,ロボット工学における問題に対して,これらのゼロショット機能がどのように適用されるかを検討する。
論文 参考訳(メタデータ) (2023-07-10T17:32:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。