論文の概要: Once Upon a $\textit{Time}$ in $\textit{Graph}$: Relative-Time
Pretraining for Complex Temporal Reasoning
- arxiv url: http://arxiv.org/abs/2310.14709v1
- Date: Mon, 23 Oct 2023 08:49:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 21:18:35.197585
- Title: Once Upon a $\textit{Time}$ in $\textit{Graph}$: Relative-Time
Pretraining for Complex Temporal Reasoning
- Title(参考訳): Once Upon a $\textit{Time}$ in $\textit{Graph}$: Relative-Time Pretraining for Complex Temporal Reasoning
- Authors: Sen Yang, Xin Li, Lidong Bing, Wai Lam
- Abstract要約: 我々は時間の性質を生かし、時間軸に沿った事象の相対的な配置に基づくグラフ構造の構築を提案する。
グラフビューにインスパイアされたRemeMoを提案する。これは2つの文間の時間関係をモデル化することによって、時間的に観察されたすべての事実を明示的に接続する。
実験の結果、RemeMoは複数の時間的質問応答データセット上でベースラインT5よりも優れていた。
- 参考スコア(独自算出の注目度): 96.03608822291136
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Our physical world is constantly evolving over time, rendering challenges for
pre-trained language models to understand and reason over the temporal contexts
of texts. Existing work focuses on strengthening the direct association between
a piece of text and its time-stamp. However, the knowledge-time association is
usually insufficient for the downstream tasks that require reasoning over
temporal dependencies between knowledge. In this work, we make use of the
underlying nature of time, all temporally-scoped sentences are strung together
through a one-dimensional time axis, and suggest creating a graph structure
based on the relative placements of events along the time axis. Inspired by the
graph view, we propose RemeMo ($\underline{Re}$lative Ti$\underline{me}$
$\underline{Mo}$deling), which explicitly connects all temporally-scoped facts
by modeling the time relations between any two sentences. Experimental results
show that RemeMo outperforms the baseline T5 on multiple temporal question
answering datasets under various settings. Further analysis suggests that
RemeMo is especially good at modeling long-range complex temporal dependencies.
We release our code and pre-trained checkpoints at
$\href{https://github.com/DAMO-NLP-SG/RemeMo}{\text{this url}}$.
- Abstract(参考訳): 私たちの物理的世界は時間とともに常に進化し続けており、事前訓練された言語モデルがテキストの時間的文脈を理解し、推論するための課題をレンダリングしています。
既存の作業は、テキストとタイムスタンプの直接的な関連性を強化することに焦点を当てている。
しかし、知識時間関連は通常、知識間の時間的依存関係の推論を必要とする下流タスクには不十分である。
本研究では,時間の性質を利用し,時間軸に沿った事象の相対配置に基づくグラフ構造の構築を提案する。
グラフビューに触発されて、私たちは rememo (\underline{re}$lative ti$\underline{me}$ $\underline{mo}$deling) を提案します。
実験の結果,RemeMoは複数の時間的質問応答データセットのベースラインT5よりも優れていた。
さらに分析すると、RemeMoは特に長距離複雑な時間的依存関係のモデリングに長けていることがわかる。
私たちはコードと事前トレーニングされたチェックポイントを$\href{https://github.com/DAMO-NLP-SG/RemeMo}{\text{this url}}$でリリースします。
関連論文リスト
- Joint Multi-Facts Reasoning Network For Complex Temporal Question
Answering Over Knowledge Graph [34.44840297353777]
時間的知識グラフ(TKG)は、時間範囲をアタッチすることで、通常の知識グラフの拡張である。
textbfunderlineMulti textbfunderlineFacts textbfunderlineReasoning textbfunderlineNetwork (JMFRN)を提案する。
論文 参考訳(メタデータ) (2024-01-04T11:34:39Z) - MTGER: Multi-view Temporal Graph Enhanced Temporal Reasoning over
Time-Involved Document [26.26604509399347]
MTGERは、時間に関連する文書に対する時間的推論のための新しいフレームワークである。
多視点時間グラフにより、事実間の時間的関係を明示的にモデル化する。
MTGERは質問の摂動下でより一貫した回答を与える。
論文 参考訳(メタデータ) (2023-11-08T16:41:37Z) - More than Classification: A Unified Framework for Event Temporal
Relation Extraction [61.44799147458621]
イベント時間関係抽出(ETRE)は通常、マルチラベル分類タスクとして定式化される。
イベントの開始点と終了点を使ってすべての関係を解釈できることを観察する。
本稿では,時間関係を時間点の論理的表現に変換するイベント時間関係抽出フレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-28T02:09:08Z) - Scanning Only Once: An End-to-end Framework for Fast Temporal Grounding
in Long Videos [60.86880787242561]
ビデオ時間グラウンドは、クエリ記述にマッチしたビデオセグメントをピンポイントすることを目的としている。
高速な時間的グラウンド化のためのエンドツーエンドのフレームワークを提案する。
提案手法は最先端技術よりも優れ,textbf14.6$times$ / textbf102.8$times$高効率を実現している。
論文 参考訳(メタデータ) (2023-03-15T03:54:43Z) - HiSMatch: Historical Structure Matching based Temporal Knowledge Graph
Reasoning [59.38797474903334]
本稿では,textbfHistorical textbfStructure textbfMatching (textbfHiSMatch)モデルを提案する。
クエリと候補エンティティの履歴構造に含まれる意味情報をキャプチャするために、2つの構造エンコーダを適用する。
6つのベンチマークデータセットの実験では、提案されたHiSMatchモデルが、最先端のベースラインと比較して最大5.6%のパフォーマンス改善を達成している。
論文 参考訳(メタデータ) (2022-10-18T09:39:26Z) - A Dataset for Answering Time-Sensitive Questions [88.95075983560331]
時間とは、我々の物理的世界において重要な次元である。多くの事実が時間に関して進化することができる。
時間次元を考慮し、既存のQAモデルに時間とともに推論する権限を与えることが重要です。
既存のQAデータセットには、時間に敏感な質問がほとんどないため、モデルの時間的推論能力の診断やベンチマークには適さない。
論文 参考訳(メタデータ) (2021-08-13T16:42:25Z) - TIMEDIAL: Temporal Commonsense Reasoning in Dialog [43.24596551545824]
本稿では,対話における時間的推論能力について,事前学習した言語モデルについて検討する。
我々は、TIME-DIALを1.1K以上の精巧なダイアログで複数選択のクローゼタスクとして定式化する。
実証的な結果は、最高のパフォーマンスモデルでさえ、人間よりもこのタスクに苦労していることを示している。
論文 参考訳(メタデータ) (2021-06-08T17:59:21Z) - Exploring Contextualized Neural Language Models for Temporal Dependency
Parsing [10.17066263304299]
BERTは時間依存性解析を大幅に改善することを示す。
また、深く文脈化されたニューラルLMがなぜ役に立ち、どこで不足するかを詳細に分析する。
論文 参考訳(メタデータ) (2020-04-30T03:59:13Z) - Local-Global Video-Text Interactions for Temporal Grounding [77.5114709695216]
本稿では,テキストクエリに関連するビデオの時間間隔を特定することを目的とした,テキスト間時間グラウンドリングの問題に対処する。
そこで本研究では,テキストクエリにおける意味句の中間レベルの特徴の集合を抽出する,新しい回帰モデルを用いてこの問題に対処する。
提案手法は,ローカルからグローバルへのコンテキスト情報を活用することにより,目標時間間隔を効果的に予測する。
論文 参考訳(メタデータ) (2020-04-16T08:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。