論文の概要: NewsReX: A More Efficient Approach to News Recommendation with Keras 3 and JAX
- arxiv url: http://arxiv.org/abs/2508.21572v1
- Date: Fri, 29 Aug 2025 12:26:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-01 19:45:11.043866
- Title: NewsReX: A More Efficient Approach to News Recommendation with Keras 3 and JAX
- Title(参考訳): NewsReX: Keras 3とJAXによるニュースレコメンデーションへのより効率的なアプローチ
- Authors: Igor L. R. Azevedo, Toyotaro Suzumura, Yuichiro Yasui,
- Abstract要約: NewsReXは、ニュース結果の生成と比較のためのオープンソースライブラリである。
Keras 3 と JAX 上に構築されており、計算効率が向上している。
本稿では,文献でしばしば見過ごされる重要なトレーニングパラメータの解析を行う。
- 参考スコア(独自算出の注目度): 2.3758708764341527
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Reproducing and comparing results in news recommendation research has become increasingly difficult. This is due to a fragmented ecosystem of diverse codebases, varied configurations, and mainly due to resource-intensive models. We introduce NewsReX, an open-source library designed to streamline this process. Our key contribution is a modern implementation built on Keras 3 and JAX, which provides an increase in computational efficiency. Experiments show that NewsReX is faster than current implementations. To support broader research, we provide a straightforward guide and scripts for training models on custom datasets. We validated this functionality using a proprietary Japanese news dataset from Nikkei News, a leading Japanese media corporation renowned for its comprehensive coverage of business, economic, and financial news. NewsReX makes reproducing complex experiments faster and more accessible to a wider range of hardware making sure the speed up it also achieved for less powerful GPUs, like an 8GB RTX 3060 Ti. Beyond the library, this paper offers an analysis of key training parameters often overlooked in the literature, including the effect of different negative sampling strategies, the varying number of epochs, the impact of random batching, and more. This supplementary analysis serves as a valuable reference for future research, aiming to reduce redundant computation when comparing baselines and guide best practices. Code available at https://github.com/igor17400/NewsReX.
- Abstract(参考訳): ニュースレコメンデーション研究における結果の再現と比較はますます困難になっている。
これは、多様なコードベースの断片化されたエコシステム、さまざまな構成、主にリソース集約型モデルによるものである。
我々は,このプロセスを合理化するためのオープンソースライブラリであるNewsReXを紹介する。
私たちの重要な貢献は、Keras 3とJAX上に構築されたモダンな実装であり、計算効率が向上します。
実験によると、NewsReXは現在の実装よりも高速である。
より広範な研究を支援するため、カスタムデータセット上でモデルをトレーニングするための簡単なガイドとスクリプトを提供しています。
ビジネス,経済,金融ニュースを包括的に網羅したことで有名な日経ニュース(日経ニュース)の独自ニュースデータセットを用いて,この機能を検証した。
NewsReXは複雑な実験を高速に再現し、より広い範囲のハードウェアにアクセスできるようにします。
図書館以外では,様々なネガティブサンプリング戦略の効果,エポック数の変動,ランダムバッチの影響など,文献でしばしば見過ごされる重要なトレーニングパラメータの解析を行う。
この補足的分析は、ベースラインを比較し、ベストプラクティスを導く際に冗長な計算を減らすことを目的として、将来の研究の参考となる。
コードはhttps://github.com/igor17400/NewsReXで公開されている。
関連論文リスト
- Short-video Propagation Influence Rating: A New Real-world Dataset and A New Large Graph Model [55.58701436630489]
クロスプラットフォームのショートビデオデータセットには、117,720の動画、381,926のサンプル、中国最大の5つのプラットフォームにわたる535のトピックが含まれている。
大グラフモデル(LGM)NetGPTは、多種多様なグラフ構造データを強力な推論能力とLarge Language Models(LLM)の知識で橋渡しすることができる
我々のNetGPTは,短ビデオ伝搬グラフの理解と解析が可能であり,短ビデオの長期伝搬の影響を予測できる。
論文 参考訳(メタデータ) (2025-03-31T05:53:15Z) - DocMamba: Efficient Document Pre-training with State Space Model [56.84200017560988]
本稿では,状態空間モデルに基づく新しいフレームワークDocMambaを紹介する。
グローバルなモデリング能力を保ちながら、計算複雑性を線形に減らすように設計されている。
HRDocの実験では、DocMambaの長さ外挿の可能性が確認された。
論文 参考訳(メタデータ) (2024-09-18T11:34:28Z) - xRAG: Extreme Context Compression for Retrieval-augmented Generation with One Token [108.7069350303884]
xRAGは、検索拡張生成に適した、革新的なコンテキスト圧縮手法である。
xRAGは、言語モデル表現空間に文書の埋め込みをシームレスに統合する。
実験の結果、xRAGは6つの知識集約タスクで平均10%以上の改善を達成していることがわかった。
論文 参考訳(メタデータ) (2024-05-22T16:15:17Z) - JaxPruner: A concise library for sparsity research [46.153423603424]
JaxPrunerはスパースニューラルネットワーク研究のためのオープンソースライブラリである。
メモリとレイテンシのオーバーヘッドを最小限に抑えながら、一般的なプルーニングとスパーストレーニングアルゴリズムを実装している。
論文 参考訳(メタデータ) (2023-04-27T10:45:30Z) - RPLKG: Robust Prompt Learning with Knowledge Graph [14.531071492983767]
CLIPのようなマルチモーダル事前トレーニングモデルでは、さまざまな実験でパフォーマンスが大幅に向上した。
既存の手法はしばしば解釈可能性に欠け、高い計算コストを課す。
本稿では,知識グラフを用いたロバスト・プロンプト学習(RPLKG)を提案する。
論文 参考訳(メタデータ) (2023-04-21T08:22:58Z) - Tevatron: An Efficient and Flexible Toolkit for Dense Retrieval [60.457378374671656]
Tevatronは、効率、柔軟性、コードの単純さに最適化された高密度な検索ツールキットである。
Tevatronのフレキシブルな設計は、データセット、モデルアーキテクチャ、アクセラレータプラットフォームをまたいで簡単に一般化できることを示す。
論文 参考訳(メタデータ) (2022-03-11T05:47:45Z) - Efficient Nearest Neighbor Language Models [114.40866461741795]
非パラメトリックニューラルネットワークモデル(NLM)は、外部データストアを用いてテキストの予測分布を学習する。
比較性能を維持しながら、推論速度の最大6倍の高速化を実現する方法を示す。
論文 参考訳(メタデータ) (2021-09-09T12:32:28Z) - The Surprising Performance of Simple Baselines for Misinformation
Detection [4.060731229044571]
我々は、現代のトランスフォーマーベースの言語モデルの広いセットのパフォーマンスを調べます。
誤情報検出の新たな手法の創出と評価のベースラインとして,本フレームワークを提案する。
論文 参考訳(メタデータ) (2021-04-14T16:25:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。