論文の概要: A model and package for German ColBERT
- arxiv url: http://arxiv.org/abs/2504.20083v1
- Date: Fri, 25 Apr 2025 14:17:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:54.570963
- Title: A model and package for German ColBERT
- Title(参考訳): ドイツ語ColBERTのモデルとパッケージ
- Authors: Thuong Dang, Qiqi Chen,
- Abstract要約: 遅延対話型マルチセンスベクトル探索手法であるColBERTのドイツ語版を紹介し,RAGアプリケーションに焦点をあてる。
検索と微調整の両方をサポートするColBERTのパッケージの主機能についても紹介する。
- 参考スコア(独自算出の注目度): 1.2123876307427102
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, we introduce a German version for ColBERT, a late interaction multi-dense vector retrieval method, with a focus on RAG applications. We also present the main features of our package for ColBERT models, supporting both retrieval and fine-tuning workflows.
- Abstract(参考訳): 本稿では,遅延対話型マルチセンスベクトル探索手法であるColBERTのドイツ語版を紹介し,RAGアプリケーションに焦点をあてる。
また、ColBERTモデル用のパッケージの主な機能を示し、検索と微調整の両方のワークフローをサポートしています。
関連論文リスト
- ColBERT-serve: Efficient Multi-Stage Memory-Mapped Scoring [39.78258323771335]
我々は、ColBERTインデックスにメモリマッピング戦略を適用する新しいサービスシステムであるColBERT-serveを提案する。
我々は、ColBERTインデックスにメモリマッピング戦略を適用する新しいサービスシステムであるColBERT-serveを提案する。
論文 参考訳(メタデータ) (2025-04-21T07:18:09Z) - A Collaborative Ensemble Framework for CTR Prediction [73.59868761656317]
我々は、複数の異なるモデルを活用するための新しいフレームワーク、CETNet(Collaborative Ensemble Training Network)を提案する。
ナイーブなモデルスケーリングとは違って,私たちのアプローチは,共同学習による多様性とコラボレーションを重視しています。
当社のフレームワークは,Metaの3つのパブリックデータセットと大規模産業データセットに基づいて検証する。
論文 参考訳(メタデータ) (2024-11-20T20:38:56Z) - Jina-ColBERT-v2: A General-Purpose Multilingual Late Interaction Retriever [6.221757399678299]
ColBERTの遅延相互作用評価は、クロスエンコーダに見られる共同クエリ文書の注意を近似する。
我々の新しいモデルであるJina-ColBERT-v2は、英語および多言語検索タスクで高い性能を示す。
論文 参考訳(メタデータ) (2024-08-29T16:21:00Z) - Unveiling the Potential of BERTopic for Multilingual Fake News Analysis -- Use Case: Covid-19 [0.562479170374811]
BERTopicは文の埋め込み、次元の縮小、クラスタリング、トピック抽出で構成されている。
本稿では,BERTopicの技術応用を実際に分析することを目的とする。
また、実世界のデータに対するトピックモデリングの結果をユースケースとして分析することを目的とする。
論文 参考訳(メタデータ) (2024-07-11T11:47:43Z) - oBERTa: Improving Sparse Transfer Learning via improved initialization,
distillation, and pruning regimes [82.99830498937729]
oBERTaは自然言語処理のための使いやすい言語モデルのセットです。
NLPの実践者はモデル圧縮の専門知識なしで3.8倍から24.3倍の高速モデルを得ることができる。
代表的な7つのNLPタスクにおけるoBERTaの利用について検討する。
論文 参考訳(メタデータ) (2023-03-30T01:37:19Z) - PAGnol: An Extra-Large French Generative Model [53.40189314359048]
本稿では,フランスのGPTモデルのコレクションであるPAGnolを紹介する。
スケーリング法則を用いて,CamemBERTと同じ計算予算でPAGnol-XLを効率的に訓練する。
論文 参考訳(メタデータ) (2021-10-16T11:44:23Z) - Pack Together: Entity and Relation Extraction with Levitated Marker [61.232174424421025]
エンコーダにマーカを戦略的にパッケージ化することにより,スパン(ペア)間の依存関係を検討するために,Packed Levitated Markersという新しいスパン表現手法を提案する。
実験の結果,3つの平坦なNERタスクにおいて,有望なマーカーが充填されたモデルの方がシーケンスラベルモデルよりも0.4%-1.9%優れ,トークンコンキャットモデルを6つのNERベンチマークで上回っていることがわかった。
論文 参考訳(メタデータ) (2021-09-13T15:38:13Z) - FBERT: A Neural Transformer for Identifying Offensive Content [67.12838911384024]
fBERTは、SOLIDで再訓練されたBERTモデルである。
複数の英文データセット上での攻撃的内容の同定におけるfBERTの性能を評価し、SOLIDからインスタンスを選択するためのしきい値をテストする。
fBERTモデルは、コミュニティで自由に利用できるようになる。
論文 参考訳(メタデータ) (2021-09-10T19:19:26Z) - Evaluating Contextualized Language Models for Hungarian [0.0]
ハンガリーのモデルhubertと多言語bertモデルを含む4つの多言語モデルを比較した。
huBERTは、他のモデルよりも、特にグローバルな最適化に近い大きなマージンで、うまく機能していることが分かりました。
論文 参考訳(メタデータ) (2021-02-22T09:29:01Z) - GottBERT: a pure German Language Model [0.0]
ドイツ語の単一言語RoBERTaモデルはまだ公開されておらず、本書で紹介する(GottBERT)。
評価では、名前付きエンティティ認識(NER)タスクのConll 2003 と GermEval 2014 と、GermEval 2018 (微細で粗い) と GNAD のテキスト分類タスクと、既存のドイツの単一言語 BERT モデルと2つの多言語タスクのパフォーマンスを比較した。
GottBERTはRoBERTa BASEアーキテクチャを使って256コアのTPUポッドで事前訓練に成功した。
論文 参考訳(メタデータ) (2020-12-03T17:45:03Z) - Efficient long-distance relation extraction with DG-SpanBERT [46.07868542443406]
自然言語処理では、関係抽出は非構造化テキストを合理的に理解しようとする。
本稿では,SpanBERTに基づくグラフ畳み込みネットワーク(DG-SpanBERT)を提案する。
我々のモデルは既存の依存性ベースモデルやシーケンスベースモデルよりも優れており、TACREDデータセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-04-07T18:21:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。