論文の概要: Aligning Multilingual News for Stock Return Prediction
- arxiv url: http://arxiv.org/abs/2510.19203v1
- Date: Wed, 22 Oct 2025 03:23:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:15.023212
- Title: Aligning Multilingual News for Stock Return Prediction
- Title(参考訳): ストックリターン予測のための多言語ニュースの調整
- Authors: Yuntao Wu, Lynn Tao, Ing-Haw Cheng, Charles Martineau, Yoshio Nozawa, John Hull, Andreas Veneris,
- Abstract要約: 最適な輸送手段を用いた多言語ニュース記事中の文の整列化手法を提案する。
我々はこの手法を用いて、ブルームバーグ英語と日本語のニュース記事の14万組以上を調整した。
修飾文はスペーサーであり、より解釈可能であり、より意味的な類似性を示す。
- 参考スコア(独自算出の注目度): 1.2019888796331233
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: News spreads rapidly across languages and regions, but translations may lose subtle nuances. We propose a method to align sentences in multilingual news articles using optimal transport, identifying semantically similar content across languages. We apply this method to align more than 140,000 pairs of Bloomberg English and Japanese news articles covering around 3500 stocks in Tokyo exchange over 2012-2024. Aligned sentences are sparser, more interpretable, and exhibit higher semantic similarity. Return scores constructed from aligned sentences show stronger correlations with realized stock returns, and long-short trading strategies based on these alignments achieve 10\% higher Sharpe ratios than analyzing the full text sample.
- Abstract(参考訳): ニュースは言語や地域によって急速に広まるが、翻訳は微妙なニュアンスを失う可能性がある。
本稿では,言語間で意味的に類似した内容を識別する最適な輸送手段を用いて,多言語ニュース記事中の文をアライメントする手法を提案する。
本稿では,2012~2024年の間に東京取引所で約3500株をカバーするブルームバーグ英語と日本語のニュース記事14万件以上を整理するために,本手法を適用した。
修飾文はスペーサーであり、より解釈可能であり、より意味的な類似性を示す。
整列文から構成したリターンスコアは、実効したストックリターンと相関が強く、これらのアライメントに基づくロングショートトトレーディング戦略は、全文のサンプルを分析するよりもシャープ比が10倍高い。
関連論文リスト
- 20min-XD: A Comparable Corpus of Swiss News Articles [42.49142747741821]
20min-XD (20 Minuten cross-lingual document-level) は、フランスの新聞記事に匹敵する文書レベルのコーパスである。
私たちのデータセットは、2015年から2024年の間に15,000の記事ペアで構成され、セマンティックな類似性に基づいて自動的に一致します。
得られたデータセットは、近翻訳から緩やかな関連記事まで、多岐にわたる言語間類似性を示す。
論文 参考訳(メタデータ) (2025-04-30T14:16:08Z) - How Transliterations Improve Crosslingual Alignment [48.929677368744606]
近年の研究では、アライメント目的を用いた多言語事前学習言語モデル(mPLM)が言語横断アライメントを改善することが示されている。
本稿では, 言語間のアライメントを明示的に評価し, 翻訳に基づくアプローチにおける重要な要素を同定し, 性能向上に寄与する。
論文 参考訳(メタデータ) (2024-09-25T20:05:45Z) - Narrowing the Gap between Zero- and Few-shot Machine Translation by
Matching Styles [53.92189950211852]
大規模言語モデルは、文脈内学習を用いたゼロショットと少数ショットの例を用いて、機械翻訳に一般化する能力を示した。
本稿では,このギャップに寄与する要因について検討し,対象コーパスの書字スタイルを一致させることで,このギャップをほとんど(約70%)閉鎖できることを示す。
論文 参考訳(メタデータ) (2023-11-04T03:18:45Z) - Optimal Transport Posterior Alignment for Cross-lingual Semantic Parsing [68.47787275021567]
言語間のセマンティックパーシングは、高いソース言語(例えば英語)から少ないトレーニングデータを持つ低リソース言語へのパーシング能力を伝達する。
そこで本稿では,最適輸送を用いた係り受け変数間の言語間相違を明示的に最小化することで,言語間セマンティック解析のための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-07-09T04:52:31Z) - Beyond Contrastive Learning: A Variational Generative Model for
Multilingual Retrieval [109.62363167257664]
本稿では,多言語テキスト埋め込み学習のための生成モデルを提案する。
我々のモデルは、$N$言語で並列データを操作する。
本手法は, 意味的類似性, ビットクストマイニング, 言語間質問検索などを含む一連のタスクに対して評価を行う。
論文 参考訳(メタデータ) (2022-12-21T02:41:40Z) - Meta-Learning a Cross-lingual Manifold for Semantic Parsing [75.26271012018861]
新しい言語をサポートするためにセマンティックをローカライズするには、効果的な言語間一般化が必要である。
本稿では,言語間移動において,最大サンプル効率で注釈付きセマンティックを学習するための一階メタ学習アルゴリズムを提案する。
ATIS上の6つの言語にまたがる結果は、ステップの組み合わせによって、各新言語におけるソーストレーニングデータの10パーセントを正確なセマンティクスでサンプリングできることを示している。
論文 参考訳(メタデータ) (2022-09-26T10:42:17Z) - NMTScore: A Multilingual Analysis of Translation-based Text Similarity
Measures [42.46681912294797]
我々は多言語NMTの共通フレームワークにおける翻訳に基づく類似度尺度を解析する。
文の埋め込みなどのベースラインと比較して、翻訳に基づく尺度はパラフレーズの識別において競争力があることが証明されている。
措置は人間の判断と相対的に高い相関を示す。
論文 参考訳(メタデータ) (2022-04-28T17:57:17Z) - Active Learning for Massively Parallel Translation of Constrained Text
into Low Resource Languages [26.822210580244885]
我々は、前もって知られ、多くの言語で利用可能なクローズドテキストを、新しく、非常に低いリソース言語に翻訳する。
テキストのコヒーレンスを局所的に最適化する部分ベースアプローチと,グローバルにテキストのカバレッジを増大させるランダムサンプリングアプローチを比較した。
本稿では,人間と機械がシームレスに連携して,閉じたテキストを極めて低リソースな言語に翻訳するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-08-16T14:49:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。