論文の概要: Granite Embedding R2 Models
- arxiv url: http://arxiv.org/abs/2508.21085v1
- Date: Tue, 26 Aug 2025 19:06:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-01 19:45:10.811162
- Title: Granite Embedding R2 Models
- Title(参考訳): R2モデルのグラファイト埋め込み
- Authors: Parul Awasthy, Aashka Trivedi, Yulong Li, Meet Doshi, Riyaz Bhat, Vignesh P, Vishwajeet Kumar, Yushu Yang, Bhavani Iyer, Abraham Daniels, Rudra Murthy, Ken Barker, Martin Franz, Madison Lee, Todd Ward, Salim Roukos, David Cox, Luis Lastras, Jaydeep Sen, Radu Florian,
- Abstract要約: Granite Embedding R2モデルは、エンタープライズスケールの高密度検索アプリケーションのために開発された高性能な英語エンコーダベースの埋め込みモデルである。
これらのモデルは、標準ベンチマーク、IBMが開発した評価スイート、および実世界のエンタープライズユースケースにおいて、例外的な汎用性を示している。
すべてのモデルはApache 2.0ライセンスの下で公開されており、無制限の研究と商用利用を可能にしている。
- 参考スコア(独自算出の注目度): 19.202549503734428
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce the Granite Embedding R2 models, a comprehensive family of high-performance English encoder-based embedding models engineered for enterprise-scale dense retrieval applications. Building upon our first-generation release, these models deliver substantial improvements, including 16x expanded context length (8,192 tokens), state-of-the-art performance across diverse retrieval domains - text, code, long-document search, multi-turn conversational, and tabular data - and measurable speed advantages of 19-44\% over leading competitors while maintaining superior accuracy. Our release encompasses both bi-encoder and cross-encoder architectures, featuring a highly effective 22-layer retriever model and its efficient 12-layer counterpart, alongside a high-quality reranker model, all trained exclusively on enterprise-appropriate data with comprehensive governance oversight. The models demonstrate exceptional versatility across standard benchmarks, IBM-developed evaluation suites, and real-world enterprise use cases, establishing new performance standards for open-source embedding models. In an era where retrieval speed and accuracy are paramount for competitive advantage, the Granite R2 models deliver a compelling combination of cutting-edge performance, enterprise-ready licensing, and transparent data provenance that organizations require for mission-critical deployments. All models are publicly available under the Apache 2.0 license at https://huggingface.co/collections/ibm-granite, enabling unrestricted research and commercial use.
- Abstract(参考訳): 本稿では,エンコーダをベースとしたエンコーダを用いたエンコーダを用いたエンコーダの包括的ファミリであるGranite Embedding R2モデルについて紹介する。
第一世代のリリースをベースとして、これらのモデルは、16倍のコンテキスト長(8,192トークン)、テキスト、コード、長いドキュメント検索、マルチターンの会話データ、表計算データなど、さまざまな検索領域にわたる最先端のパフォーマンス、主要な競合よりも19~44倍の速度優位性など、大幅に改善されている。
当社のリリースでは,22層レトリバーモデルと12層レトリバーモデル,および高品質のリランカモデルを特徴として,両エンコーダアーキテクチャとクロスエンコーダアーキテクチャの両方を対象としています。
これらのモデルは、標準ベンチマーク、IBMが開発した評価スイート、および実世界のエンタープライズユースケースにまたがる例外的な汎用性を示し、オープンソースの埋め込みモデルの新たなパフォーマンス標準を確立します。
競争上の優位性のために、検索速度と精度が最優先される時代において、Granite R2モデルは、最先端のパフォーマンス、エンタープライズ対応のライセンス、そして組織がミッションクリティカルなデプロイメントに必要とする透過的なデータ証明という魅力的な組み合わせを提供します。
すべてのモデルはApache 2.0ライセンスでhttps://huggingface.co/collections/ibm-graniteで公開されている。
関連論文リスト
- Leveraging Generative Models for Real-Time Query-Driven Text Summarization in Large-Scale Web Search [54.987957691350665]
クエリ駆動テキスト要約(QDTS)は、与えられたクエリに基づいてテキスト文書から簡潔で情報的な要約を生成することを目的としている。
従来の抽出的要約モデルは、主にランク付け候補の要約セグメントに基づいており、産業応用において支配的なアプローチとなっている。
産業Web検索におけるリアルタイムQDTSに対処するための生成モデルの適用を開拓するための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-08-28T08:51:51Z) - gpt-oss-120b & gpt-oss-20b Model Card [128.07668730833967]
精度と推論コストのフロンティアを推し進める2つのオープンウェイト推論モデルを提案する。
モデルは効率的な混合型変圧器アーキテクチャを使用しており、大規模な蒸留と強化学習を用いて訓練されている。
論文 参考訳(メタデータ) (2025-08-08T19:24:38Z) - KaLM-Embedding-V2: Superior Training Techniques and Data Inspire A Versatile Embedding Model [46.95431131609286]
汎用的・コンパクトな埋め込みモデルである KaLM-Embedding-V2 は汎用テキスト埋め込みタスクにおいて優れた性能を発揮する。
i) 大規模弱教師付きオープンソースコーパスの事前トレーニング、(ii) 高品質な検索と非検索データセットの微調整、(iii) 堅牢な一般化のためのモデル-バックアップパラメータ平均化。
論文 参考訳(メタデータ) (2025-06-26T01:09:44Z) - Granite Embedding Models [26.86244952892162]
本稿では,検索タスク用に設計されたエンコーダベースの埋め込みモデルであるGranite Embeddingモデルを紹介する。
本報告では、これらの高効率12層埋込みモデルと、効率的6層蒸留モデルに関する技術的詳細について述べる。
私たちは、Apache 2.0ライセンスの下で、Granite Embeddingモデルをすべて公開し、https://huggingface.co/collections/ibm-granite.comで研究と商業の両方が利用可能です。
論文 参考訳(メタデータ) (2025-02-27T15:45:16Z) - Granite Vision: a lightweight, open-source multimodal model for enterprise Intelligence [88.74800617923083]
視覚機能を備えた軽量な大規模言語モデルであるGranite Visionを紹介した。
我々のモデルは、包括的な命令追従データセットに基づいて訓練されている。
Granite Visionは、ビジュアル文書理解に関連する標準ベンチマークで強力な結果を得る。
論文 参考訳(メタデータ) (2025-02-14T05:36:32Z) - Data-Juicer Sandbox: A Feedback-Driven Suite for Multimodal Data-Model Co-development [67.55944651679864]
統合データモデル共同開発に適した新しいサンドボックススイートを提案する。
このサンドボックスは、フィードバック駆動の実験プラットフォームを提供し、コスト効率とデータとモデルの両方のガイド付き洗練を可能にする。
論文 参考訳(メタデータ) (2024-07-16T14:40:07Z) - Large Dual Encoders Are Generalizable Retrievers [26.42937314291077]
モデルサイズをスケールアップすることで,様々な検索タスクにおいて大幅な改善がもたらされることを示す。
textbf Generalizable textbfT5-based dense textbfRetrievers (GTR), outform %ColBERTcitekhattab2020colbert and existing sparse and dense retriever。
論文 参考訳(メタデータ) (2021-12-15T05:33:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。