論文の概要: Lightning IR: Straightforward Fine-tuning and Inference of Transformer-based Language Models for Information Retrieval
- arxiv url: http://arxiv.org/abs/2411.04677v1
- Date: Thu, 07 Nov 2024 13:03:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-09 19:51:00.643519
- Title: Lightning IR: Straightforward Fine-tuning and Inference of Transformer-based Language Models for Information Retrieval
- Title(参考訳): Lightning IR:情報検索のためのトランスフォーマーベース言語モデルのストレートフォワード微調整と推論
- Authors: Ferdinand Schlatt, Maik Fröbe, Matthias Hagen,
- Abstract要約: 本稿では、情報検索のためのトランスフォーマーベース言語モデルの微調整と推論を行うPyTorchベースのフレームワークであるLightning IRを紹介する。
Lightning IRは、微調整やインデックス付けから検索と再ランク付けまで、情報検索パイプラインのすべてのステージをサポートする。
- 参考スコア(独自算出の注目度): 43.40675637622642
- License:
- Abstract: A wide range of transformer-based language models have been proposed for information retrieval tasks. However, fine-tuning and inference of these models is often complex and requires substantial engineering effort. This paper introduces Lightning IR, a PyTorch Lightning-based framework for fine-tuning and inference of transformer-based language models for information retrieval. Lightning IR provides a modular and extensible architecture that supports all stages of an information retrieval pipeline: from fine-tuning and indexing to searching and re-ranking. It is designed to be straightforward to use, scalable, and reproducible. Lightning IR is available as open-source: https://github.com/webis-de/lightning-ir.
- Abstract(参考訳): 情報検索タスクには,多種多様なトランスフォーマーベース言語モデルが提案されている。
しかし、これらのモデルの微調整と推測はしばしば複雑であり、かなりのエンジニアリング努力を必要とする。
本稿では、情報検索のためのトランスフォーマーベース言語モデルの微調整と推論を行うPyTorch LightningベースのフレームワークであるLightning IRを紹介する。
Lightning IRは、情報検索パイプラインのすべてのステージをサポートするモジュラーで拡張可能なアーキテクチャを提供する。
使いやすく、スケーラブルで、再現しやすいように設計されています。
Lightning IR は https://github.com/webis-de/lightning-ir.com で公開されている。
関連論文リスト
- Robust Neural Information Retrieval: An Adversarial and Out-of-distribution Perspective [111.58315434849047]
ニューラルネットワーク検索モデル(IR)モデルの堅牢性は、大きな注目を集めている。
我々は、IRの堅牢性を多面的概念とみなし、敵攻撃、アウト・オブ・ディストリビューション(OOD)シナリオ、パフォーマンスのばらつきに対してその必要性を強調している。
我々は,既存の手法,データセット,評価指標について詳細な議論を行い,大規模言語モデルの時代における課題や今後の方向性に光を当てる。
論文 参考訳(メタデータ) (2024-07-09T16:07:01Z) - PyTorch-IE: Fast and Reproducible Prototyping for Information Extraction [6.308539010172309]
PyTorch-IEは、情報抽出モデルの迅速かつ再現可能で再利用可能な実装を可能にするために設計されたフレームワークである。
データ表現とモデル固有表現の関心事を分離するタスクモジュールを提案する。
PyTorch-IEは、トレーニングにPyTorch-Lightning、データセット読み込みにHuggingFaceデータセット、実験設定にHydraなど、広く使用されているライブラリのサポートも拡張している。
論文 参考訳(メタデータ) (2024-05-16T12:23:37Z) - Modality Translation for Object Detection Adaptation Without Forgetting Prior Knowledge [11.905387325966311]
本稿では、RGB画像から抽出した新しいデータに、RGB画像に基づいて訓練された大規模な物体検出モデルを適用することに焦点を当てる。
モーダリティ変換器 (ModTr) を, 大規模モデルを新しいモーダリティに微調整する一般的な手法の代替として提案する。
論文 参考訳(メタデータ) (2024-04-01T21:28:50Z) - Large Language Models for Information Retrieval: A Survey [58.30439850203101]
情報検索は、項ベースの手法から高度なニューラルモデルとの統合へと進化してきた。
近年の研究では、大規模言語モデル(LLM)を活用してIRシステムの改善が試みられている。
LLMとIRシステムの合流点を探索し、クエリリライト、リトリバー、リランカー、リーダーといった重要な側面を含む。
論文 参考訳(メタデータ) (2023-08-14T12:47:22Z) - Zero-shot Composed Text-Image Retrieval [72.43790281036584]
合成画像検索(CIR)の問題点を考察する。
テキストや画像などのマルチモーダル情報を融合し、クエリにマッチする画像を正確に検索し、ユーザの表現能力を拡張できるモデルをトレーニングすることを目的としている。
論文 参考訳(メタデータ) (2023-06-12T17:56:01Z) - SIM-Trans: Structure Information Modeling Transformer for Fine-grained
Visual Categorization [59.732036564862796]
本稿では,オブジェクト構造情報を変換器に組み込んだSIM-Trans(Structure Information Modeling Transformer)を提案する。
提案した2つのモジュールは軽量化されており、任意のトランスフォーマーネットワークにプラグインでき、エンドツーエンドで容易に訓練できる。
実験と解析により,提案したSIM-Transが細粒度視覚分類ベンチマークの最先端性能を達成することを示した。
論文 参考訳(メタデータ) (2022-08-31T03:00:07Z) - Learning Discrete Energy-based Models via Auxiliary-variable Local
Exploration [130.89746032163106]
離散構造データに対する条件付きおよび非条件付きEMMを学習するための新しいアルゴリズムであるALOEを提案する。
エネルギー関数とサンプリング器は、新しい変分型電力繰り返しにより効率よく訓練できることを示す。
本稿では、ソフトウェアテストのためのエネルギーモデルガイド付ファジィザについて、libfuzzerのようなよく設計されたファジィエンジンに匹敵する性能を実現する。
論文 参考訳(メタデータ) (2020-11-10T19:31:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。