論文の概要: Optimal Text-Based Time-Series Indices
- arxiv url: http://arxiv.org/abs/2405.10449v1
- Date: Thu, 16 May 2024 21:20:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-20 17:21:37.715929
- Title: Optimal Text-Based Time-Series Indices
- Title(参考訳): 最適なテキストベース時系列指標
- Authors: David Ardia, Keven Bluteau,
- Abstract要約: 本稿では,テキストに基づく時系列指標を最適に構築する手法を提案する。典型的には,インフレなどの対象変数に対する同時関係や予測性能を最大化する指標である。
我々は、VIX指数とインフレ期待の追跡に焦点をあてたテキストベースの指標を最適化することで、ウォールストリートジャーナルのニュース記事のコーパスを用いて、我々の方法論を解説する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We propose an approach to construct text-based time-series indices in an optimal way--typically, indices that maximize the contemporaneous relation or the predictive performance with respect to a target variable, such as inflation. We illustrate our methodology with a corpus of news articles from the Wall Street Journal by optimizing text-based indices focusing on tracking the VIX index and inflation expectations. Our results highlight the superior performance of our approach compared to existing indices.
- Abstract(参考訳): 本稿では,テキストに基づく時系列指標を最適に構築する手法を提案する。典型的には,インフレなどの対象変数に対する同時関係や予測性能を最大化する指標である。
我々は、VIX指数とインフレ期待の追跡に焦点をあてたテキストベースの指標を最適化することで、ウォールストリートジャーナルのニュース記事のコーパスを用いて、我々の方法論を解説する。
その結果、既存の指標と比較して、アプローチの優れたパフォーマンスが浮き彫りになった。
関連論文リスト
- $f$-PO: Generalizing Preference Optimization with $f$-divergence Minimization [91.43730624072226]
$f$-POは、既存のアプローチを一般化し拡張する新しいフレームワークである。
ベンチマークデータセットを用いて最先端言語モデルの実験を行う。
論文 参考訳(メタデータ) (2024-10-29T02:11:45Z) - UpLIF: An Updatable Self-Tuning Learned Index Framework [4.077820670802213]
UpLIFは、入ってくる更新に対応するようにモデルを調整した適応的な自己チューニング学習インデックスである。
また、モデル固有の特性を決定するバランスモデル調整の概念も導入する。
論文 参考訳(メタデータ) (2024-08-07T22:30:43Z) - Improving Sampling Methods for Fine-tuning SentenceBERT in Text Streams [49.3179290313959]
本研究では,選択的な微調整言語モデルの設計した7つのテキストサンプリング手法の有効性について検討した。
これらの手法がSBERTモデルの微調整に与える影響を, 4つの異なる損失関数を用いて正確に評価する。
その結果,テキストストリームの分類にはソフトマックスの損失とバッチ・オール・トリプレットの損失が特に有効であることが示唆された。
論文 参考訳(メタデータ) (2024-03-18T23:41:52Z) - Bidirectional Looking with A Novel Double Exponential Moving Average to
Adaptive and Non-adaptive Momentum Optimizers [109.52244418498974]
我々は,新しいtextscAdmeta(textbfADouble指数textbfMov averagtextbfE textbfAdaptiveおよび非適応運動量)フレームワークを提案する。
我々は、textscAdmetaR と textscAdmetaS の2つの実装を提供し、前者は RAdam を、後者は SGDM をベースとしています。
論文 参考訳(メタデータ) (2023-07-02T18:16:06Z) - How to Index Item IDs for Recommendation Foundation Models [49.425959632372425]
Recommendation foundation modelは、リコメンデーションタスクを自然言語タスクに変換することで、リコメンデーションのために大きな言語モデル(LLM)を利用する。
過剰に長いテキストや幻覚的なレコメンデーションを生成するのを避けるために、LCM互換のアイテムIDを作成することが不可欠である。
本稿では,シーケンシャルインデックス,協調インデックス,セマンティックインデックス(コンテンツベース)インデックス,ハイブリッドインデックスの4つを提案する。
論文 参考訳(メタデータ) (2023-05-11T05:02:37Z) - Optimal Stopping with Gaussian Processes [2.126171264016785]
金融時系列でよく見られる構造特性は、ガウス過程とディープガウス過程のモデルを使用することが可能であることを示す。
さらに、最適停止解析により価格モデルを伝播することにより、値関数の不確実性を定量化する。
我々のアルゴリズム群は3つの歴史的時系列データセットのベンチマークよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-09-22T21:19:27Z) - LSI: A Learned Secondary Index Structure [24.324528705706104]
本研究では,未分類データのインデックス化に学習指標を使用する最初の試みであるLearnered secondary Index(LSI)を紹介する。
LSIは最先端のセカンダリインデックスに匹敵するルックアップ性能を実現し,空間効率を最大6倍に向上することを示す。
論文 参考訳(メタデータ) (2022-05-11T20:49:44Z) - The R package sentometrics to compute, aggregate and predict with
textual sentiment [0.0]
Rパッケージのセマンティックスを用いたテキスト感情指標の最適化について手動で紹介する。
sentometricsパッケージは、多数のテキストの感情スコアを効率的に計算し、スコアを複数の時系列に集約し、これらの時系列を使用して他の変数を予測するための直感的なフレームワークを実装している。
論文 参考訳(メタデータ) (2021-10-20T23:24:45Z) - A Pluggable Learned Index Method via Sampling and Gap Insertion [48.900186573181735]
データベースインデックスは、データ検索を促進し、現実世界のシステムにおける幅広いアプリケーションに役立つ。
近年,隠れて有用なデータ分布を学習するために,learning indexという新しいインデックスが提案されている。
学習指標の学習効率と学習効率を高めるための2つの一般的なテクニックとプラグイン可能なテクニックを研究します。
論文 参考訳(メタデータ) (2021-01-04T07:17:23Z) - Post-Estimation Smoothing: A Simple Baseline for Learning with Side
Information [102.18616819054368]
本稿では,構造指標データを予測に組み込む高速かつ効率的な手法として,後推定平滑化演算子を提案する。
滑らかなステップは元の予測器とは分離されているため、機械学習タスクの幅広いクラスに適用できる。
大規模な空間的・時間的データセットに関する実験は,実測後のスムース化の速度と正確さを浮き彫りにした。
論文 参考訳(メタデータ) (2020-03-12T18:04:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。