論文の概要: ESQA: Event Sequences Question Answering
- arxiv url: http://arxiv.org/abs/2407.12833v2
- Date: Fri, 19 Jul 2024 07:38:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-22 21:49:14.880171
- Title: ESQA: Event Sequences Question Answering
- Title(参考訳): ESQA: イベントシーケンスの質問回答
- Authors: Irina Abdullaeva, Andrei Filatov, Mikhail Orlov, Ivan Karpukhin, Viacheslav Vasilev, Denis Dimitrov, Andrey Kuznetsov, Ivan Kireev, Andrey Savchenko,
- Abstract要約: イベントシーケンス(ES)は、金融、小売、ソーシャルネットワーク、医療など、多くの実践的な領域で発生する。
ESsモデリングと分析の重要性にもかかわらず、大きな言語モデル(LLM)をESsドメインに適応させる作業はほとんど行われなかった。
本稿では,複数の下流タスクを微調整をほとんどあるいは全く行わずに解決できる新しい解法を提案する。
- 参考スコア(独自算出の注目度): 3.7647396227882974
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Event sequences (ESs) arise in many practical domains including finance, retail, social networks, and healthcare. In the context of machine learning, event sequences can be seen as a special type of tabular data with annotated timestamps. Despite the importance of ESs modeling and analysis, little effort was made in adapting large language models (LLMs) to the ESs domain. In this paper, we highlight the common difficulties of ESs processing and propose a novel solution capable of solving multiple downstream tasks with little or no finetuning. In particular, we solve the problem of working with long sequences and improve time and numeric features processing. The resulting method, called ESQA, effectively utilizes the power of LLMs and, according to extensive experiments, achieves state-of-the-art results in the ESs domain.
- Abstract(参考訳): イベントシーケンス(ES)は、金融、小売、ソーシャルネットワーク、医療など、多くの実践的な領域で発生する。
機械学習の文脈では、イベントシーケンスは注釈付きタイムスタンプを持つ特別なタイプの表データと見なすことができる。
ESsモデリングと分析の重要性にもかかわらず、大きな言語モデル(LLM)をESsドメインに適応させる努力はほとんど行われなかった。
本稿では,ESs処理の難しさを強調し,複数の下流タスクを微調整をほとんどあるいは全く行わずに解決できる新しい解法を提案する。
特に、長いシーケンスで作業することの問題を解決し、時間と数値の特徴処理を改善する。
ESQAと呼ばれるこの手法は、LLMのパワーを効果的に利用し、広範な実験により、ESs領域における最先端の結果を得る。
関連論文リスト
- DEXTER: A Benchmark for open-domain Complex Question Answering using LLMs [3.24692739098077]
オープンドメイン複合質問回答 (QA) は証拠検索と推論において難しい課題である。
我々は、オープンドメイン設定で、最先端の訓練済み高密度・スパース検索モデルを評価する。
BM25のような遅延相互作用モデルや驚くほど語彙的モデルは、事前訓練された高密度検索モデルと比較してよく機能する。
論文 参考訳(メタデータ) (2024-06-24T22:09:50Z) - Losing Visual Needles in Image Haystacks: Vision Language Models are Easily Distracted in Short and Long Contexts [65.04791072532106]
視覚言語モデル(VLM)における長文抽出推論評価のためのベンチマークジェネレータであるLoCoVQAを提案する。
LoCoVQAは、数学的推論、VQA、そしてより長い視覚的コンテキストを持つ文字認識タスクのテスト例を拡張している。
このテストは、VLMがクエリに応答する際の無関係な情報をどの程度無視できるかを評価する。
論文 参考訳(メタデータ) (2024-06-24T17:58:03Z) - UniTime: A Language-Empowered Unified Model for Cross-Domain Time Series
Forecasting [59.11817101030137]
この研究はドメイン境界を超越する統一モデルパラダイムを提唱する。
効果的なクロスドメインモデルを学ぶことは、以下の課題を提示します。
効果的なドメイン間時系列学習のためのUniTimeを提案する。
論文 参考訳(メタデータ) (2023-10-15T06:30:22Z) - OverPrompt: Enhancing ChatGPT through Efficient In-Context Learning [49.38867353135258]
複数のタスク入力を処理するために,LLMのコンテキスト内学習機能を活用したOverPromptを提案する。
本実験により,OverPromptはタスク性能を著しく損なうことなく,コスト効率の良いゼロショット分類を実現することができることがわかった。
論文 参考訳(メタデータ) (2023-05-24T10:08:04Z) - RetICL: Sequential Retrieval of In-Context Examples with Reinforcement Learning [53.52699766206808]
In-Context Learning (RetICL) のための検索式を提案する。
RetICLは数学用語の問題解決と科学的質問応答のタスクに基づいて評価し,一貫した性能や一致,学習可能なベースラインを示す。
論文 参考訳(メタデータ) (2023-05-23T20:15:56Z) - Learning Neural Models for Continuous-Time Sequences [0.0]
連続時間イベントシーケンス(CTES)の特性について検討し、上記の問題を克服するために、堅牢でスケーラブルなニューラルネットワークベースモデルを設計する。
本研究では,MTPPを用いた事象の生成過程をモデル化し,現実世界の幅広い問題に対処する。
論文 参考訳(メタデータ) (2021-11-13T20:39:15Z) - What Averages Do Not Tell -- Predicting Real Life Processes with
Sequential Deep Learning [0.1376408511310322]
プロセスマイニング(Process Mining)は、システムによってログされた実行データからビジネスプロセスに関する洞察を発見すること。
多くのディープラーニング技術が、プロセス結果の予測を目的とした予測プロセスマイニングに成功している。
プロセスマイニングのトレースはマルチモーダルシーケンスであり、自然言語の文や画像とは全く異なる構造である。
論文 参考訳(メタデータ) (2021-10-19T19:45:05Z) - Learning to Ask Conversational Questions by Optimizing Levenshtein
Distance [83.53855889592734]
明示的な編集動作によって最小レベンシュテイン距離(MLD)を最適化する強化反復シーケンス編集(RISE)フレームワークを導入する。
RISEは会話の特徴に関連するトークンに注意を払うことができる。
2つのベンチマークデータセットの実験結果から、RISEは最先端の手法を大幅に上回っていることがわかった。
論文 参考訳(メタデータ) (2021-06-30T08:44:19Z) - A Survey on Recent Advances in Sequence Labeling from Deep Learning
Models [19.753741555478793]
シーケンスラベリングは、様々なタスクを含む基本的な研究課題である。
ディープラーニングは、複雑な機能を自動的に学習する強力な能力のため、シーケンスラベリングタスクに使用されている。
論文 参考訳(メタデータ) (2020-11-13T02:29:50Z) - Dissecting Span Identification Tasks with Performance Prediction [10.759863489447204]
チャンキング、NER、コードスイッチング検出などのスパンIDタスクは、テキスト内の関連するスパンを識別し分類するためにモデルを要求する。
我々は、パフォーマンス予測を通じてIDタスクを解析し、ニューラルアーキテクチャが異なるタスクでどれだけうまく機能するかを推定する。
a) 性能予測を知らせるスパンIDタスクの重要な特性を特定し、(b) 英語データに対して大規模な実験を行い、アーキテクチャ選択を支援可能なスパンIDタスクのパフォーマンスを予測するモデルを構築し、(c) メタモデルのパラメータを調査し、モデルとタスク特性の相互作用に関する新たな洞察を得る。
論文 参考訳(メタデータ) (2020-10-06T09:55:00Z) - Temporally Correlated Task Scheduling for Sequence Learning [143.70523777803723]
多くのアプリケーションにおいて、シーケンス学習タスクは通常、複数の時間的に相関した補助タスクと関連付けられている。
シーケンス学習に学習可能なスケジューラを導入し、トレーニングのための補助的なタスクを適応的に選択できる。
本手法は,同時翻訳とストックトレンド予測の性能を著しく向上させる。
論文 参考訳(メタデータ) (2020-07-10T10:28:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。