論文の概要: Transformer-Based Temporal Information Extraction and Application: A Review
- arxiv url: http://arxiv.org/abs/2504.07470v1
- Date: Thu, 10 Apr 2025 05:48:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-11 12:21:36.204136
- Title: Transformer-Based Temporal Information Extraction and Application: A Review
- Title(参考訳): 変圧器を用いた時間情報抽出とその応用
- Authors: Xin Su, Phillip Howard, Steven Bethard,
- Abstract要約: 時間情報抽出(IE)は、構造化されていないテキストから構造化された時間情報を抽出することを目的としている。
本稿では,トランスフォーマーを用いた一時的IEの作業体を体系的に要約し,解析する。
- 参考スコア(独自算出の注目度): 11.34995915076939
- License:
- Abstract: Temporal information extraction (IE) aims to extract structured temporal information from unstructured text, thereby uncovering the implicit timelines within. This technique is applied across domains such as healthcare, newswire, and intelligence analysis, aiding models in these areas to perform temporal reasoning and enabling human users to grasp the temporal structure of text. Transformer-based pre-trained language models have produced revolutionary advancements in natural language processing, demonstrating exceptional performance across a multitude of tasks. Despite the achievements garnered by Transformer-based approaches in temporal IE, there is a lack of comprehensive reviews on these endeavors. In this paper, we aim to bridge this gap by systematically summarizing and analyzing the body of work on temporal IE using Transformers while highlighting potential future research directions.
- Abstract(参考訳): 時間情報抽出(IE)は、構造化されていないテキストから構造化された時間情報を抽出し、内部の暗黙のタイムラインを明らかにすることを目的としている。
この手法は、医療、ニュースワイヤ、インテリジェンス分析などの分野に適用され、これらの領域におけるモデルを用いて、時間的推論を行い、人間がテキストの時間的構造を把握できるようにする。
トランスフォーマーをベースとした事前学習型言語モデルは、自然言語処理において革命的な進歩をもたらし、様々なタスクにおいて例外的なパフォーマンスを誇示している。
一時的IEにおけるTransformerベースのアプローチの成果にもかかわらず、これらの取り組みに関する包括的なレビューは欠如している。
本稿では,トランスフォーマを用いて時間的IEの作業体を体系的に要約し,解析し,将来的な研究方向性を強調し,このギャップを埋めることを目的としている。
関連論文リスト
- LLMTemporalComparator: A Tool for Analysing Differences in Temporal Adaptations of Large Language Models [17.021220773165016]
本研究では、異なる期間のデータに基づいて訓練された大規模言語モデル(LLM)における時間的不一致を分析することの課題に対処する。
本稿では,ユーザ定義クエリに基づく2つのLLMバージョンの出力を体系的に比較するシステムを提案する。
論文 参考訳(メタデータ) (2024-10-05T15:17:07Z) - Analysis of Plan-based Retrieval for Grounded Text Generation [78.89478272104739]
幻覚は、言語モデルがそのパラメトリック知識の外で生成タスクが与えられるときに起こる。
この制限に対処するための一般的な戦略は、言語モデルに検索メカニズムを注入することである。
我々は,幻覚の頻度をさらに減少させるために,探索のガイドとして計画をどのように利用できるかを分析する。
論文 参考訳(メタデータ) (2024-08-20T02:19:35Z) - State-Space Modeling in Long Sequence Processing: A Survey on Recurrence in the Transformer Era [59.279784235147254]
このサーベイは、シーケンシャルなデータ処理の反復モデルに基づく最新のアプローチの詳細な概要を提供する。
新たなイメージは、標準のバックプロパゲーション・オブ・タイムから外れた学習アルゴリズムによって構成される、新しいルートを考える余地があることを示唆している。
論文 参考訳(メタデータ) (2024-06-13T12:51:22Z) - Towards Effective Time-Aware Language Representation: Exploring Enhanced Temporal Understanding in Language Models [24.784375155633427]
本稿では,時間的ニュース記事の収集を前提として事前学習した,新しいタイムアウェア言語モデルであるBiTimeBERT 2.0を紹介する。
BiTimeBERT 2.0は3つの革新的な事前学習目標を通じて時間情報を組み込む。
BiTimeBERT 2.0は、幅広い時間的タスクにまたがって大幅に改善され、広範囲の時間的範囲にまたがるデータセットに優れることを示す。
論文 参考訳(メタデータ) (2024-06-04T00:30:37Z) - Explaining Text Similarity in Transformer Models [52.571158418102584]
説明可能なAIの最近の進歩により、トランスフォーマーの説明の改善を活用することで、制限を緩和できるようになった。
両線形類似性モデルにおける2次説明の計算のために開発された拡張であるBiLRPを用いて、NLPモデルにおいてどの特徴相互作用が類似性を促進するかを調べる。
我々の発見は、異なる意味的類似性タスクやモデルに対するより深い理解に寄与し、新しい説明可能なAIメソッドが、どのようにして深い分析とコーパスレベルの洞察を可能にするかを強調した。
論文 参考訳(メタデータ) (2024-05-10T17:11:31Z) - Analysis of the Evolution of Advanced Transformer-Based Language Models:
Experiments on Opinion Mining [0.5735035463793008]
本稿では,最先端のトランスフォーマーに基づく言語モデルの意見マイニングにおける挙動について検討する。
私たちの比較研究は、フォーカスするアプローチに関して、プロダクションエンジニアがリードし、道を開く方法を示しています。
論文 参考訳(メタデータ) (2023-08-07T01:10:50Z) - Multivariate Time Series characterization and forecasting of VoIP
traffic in real mobile networks [9.637582917616703]
モビリティシナリオにおけるリアルタイムトラフィック(例えばVoIP)の振る舞いを予測することは、オペレーターがネットワークインフラをよりよく計画するのに役立つ。
本研究では,実モバイル環境におけるVoIPトラフィックの重要/QoE記述子の予測分析を提案する。
論文 参考訳(メタデータ) (2023-07-13T09:21:39Z) - Temporal Attention for Language Models [24.34396762188068]
本稿では,トランスアーキテクチャのキーコンポーネントである自己注意機構を拡張し,時間的注意を喚起する。
時間的注意は、任意のトランスモデルに適用することができ、入力テキストに関連する時間ポイントを添付する必要がある。
我々はこれらの表現を意味変化検出のタスクに活用する。
提案したモデルでは,すべてのデータセットに対して最先端の結果が得られた。
論文 参考訳(メタデータ) (2022-02-04T11:55:34Z) - Automated Machine Learning Techniques for Data Streams [91.3755431537592]
本稿では、最先端のオープンソースAutoMLツールを調査し、ストリームから収集したデータに適用し、時間とともにパフォーマンスがどのように変化するかを測定する。
この結果から,既製のAutoMLツールで十分な結果が得られることが示されたが,概念ドリフトや検出,適応といった手法が適用されれば,予測精度を時間とともに維持することが可能になる。
論文 参考訳(メタデータ) (2021-06-14T11:42:46Z) - Pretrained Transformers for Text Ranking: BERT and Beyond [53.83210899683987]
このサーベイは、トランスフォーマーとして知られるニューラルネットワークアーキテクチャによるテキストランキングの概要を提供する。
トランスフォーマーと自己教師型事前学習の組み合わせは、自然言語処理のパラダイムシフトの原因となっている。
論文 参考訳(メタデータ) (2020-10-13T15:20:32Z) - Language Guided Networks for Cross-modal Moment Retrieval [66.49445903955777]
モーダルモーダルモーメント検索は、自然言語クエリによって記述された未編集ビデオから時間セグメントをローカライズすることを目的としている。
既存の手法は、ビデオや文の特徴を独立して抽出する。
本稿では,言語ガイドネットワーク(LGN, Language Guided Networks)について紹介する。
論文 参考訳(メタデータ) (2020-06-18T12:08:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。