論文の概要: rollama: An R package for using generative large language models through Ollama
- arxiv url: http://arxiv.org/abs/2404.07654v1
- Date: Thu, 11 Apr 2024 11:37:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-12 14:19:15.579813
- Title: rollama: An R package for using generative large language models through Ollama
- Title(参考訳): rollama: Ollamaを通じて生成可能な大規模言語モデルを使用するためのRパッケージ
- Authors: Johannes B. Gruber, Maximilian Weber,
- Abstract要約: rollamaは、Ollama APIをラップするRパッケージである。
パッケージと学習の素材は、Ollamaを使ってテキストを注釈付けしたり、オープンソースのモデルでデータを想像したり、これらのモデルをドキュメントの埋め込みに利用するのを容易にすることに焦点を当てている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: rollama is an R package that wraps the Ollama API, which allows you to run different Generative Large Language Models (GLLM) locally. The package and learning material focus on making it easy to use Ollama for annotating textual or imagine data with open-source models as well as use these models for document embedding. But users can use or extend rollama to do essentially anything else that is possible through OpenAI's API, yet more private, reproducible and for free.
- Abstract(参考訳): rollamaはOllama APIをラップするRパッケージで、異なるジェネレーティブ大型言語モデル(GLLM)をローカルで実行することができる。
パッケージと学習の素材は、Ollamaを使ってテキストを注釈付けしたり、オープンソースのモデルでデータを想像したり、これらのモデルをドキュメントの埋め込みに利用するのを容易にすることに焦点を当てている。
しかし、ユーザーは、OpenAIのAPIを通じて可能なことは何でもできるが、よりプライベートで再現性があり、無料で、ロールマを使用または拡張することができる。
関連論文リスト
- RAGViz: Diagnose and Visualize Retrieval-Augmented Generation [16.91653397201039]
Retrieval-augmented Generation (RAG)は、ドメイン固有のソースからの知識を大きな言語モデルに結合する。
本稿では,得られた文書中の生成したトークンの注意力を可視化するRAG診断ツールであるRAGVizを提案する。
RAGVizは、(1)トークンと文書レベルの注意の可視化、(2)コンテキスト文書の追加と削除に関する生成比較の2つの主要な機能を提供している。
論文 参考訳(メタデータ) (2024-11-04T02:30:05Z) - Less is More: Making Smaller Language Models Competent Subgraph Retrievers for Multi-hop KGQA [51.3033125256716]
本研究では,小言語モデルで処理される条件生成タスクとして,サブグラフ検索タスクをモデル化する。
2億2千万のパラメータからなる基本生成部分グラフ検索モデルでは,最先端モデルと比較して競合検索性能が向上した。
LLMリーダを接続した最大の3Bモデルは、WebQSPとCWQベンチマークの両方で、SOTAのエンドツーエンドパフォーマンスを新たに設定します。
論文 参考訳(メタデータ) (2024-10-08T15:22:36Z) - ULLME: A Unified Framework for Large Language Model Embeddings with Generation-Augmented Learning [72.90823351726374]
我々は,LLM間の双方向の注目を可能にする,柔軟でプラグアンドプレイな実装であるLULME(Unified framework for Large Language Model Embedding)を紹介した。
また,テキスト埋め込みタスクのLLMを向上する新しい微調整手法であるGRL(Generation-augmented Representation Learning)を提案する。
フレームワークの柔軟性と有効性を示すために、異なるバックボーンアーキテクチャを持つULLMEから事前訓練された3つのモデルをリリースする。
論文 参考訳(メタデータ) (2024-08-06T18:53:54Z) - RAFT: Adapting Language Model to Domain Specific RAG [75.63623523051491]
本稿では、ドメイン内の「オープンブック」設定において、モデルが質問に答える能力を改善するためのトレーニングレシピであるRetrieval Augmented FineTuning(RAFT)を紹介する。
RAFTは、質問に答える助けとなる関連文書から、動詞の正しいシーケンスを引用することで、これを達成します。
RAFTは、PubMed、HotpotQA、Gorillaデータセット全体のモデルのパフォーマンスを一貫して改善する。
論文 参考訳(メタデータ) (2024-03-15T09:26:02Z) - Generative Representational Instruction Tuning [89.76840377003178]
GritLM 7B がMassive Text Embedding Benchmark (MTEB) に新たな技術状況を設定する
GritLM 8x7Bは、私たちが試したすべてのオープンな生成言語モデルよりも優れています。
論文 参考訳(メタデータ) (2024-02-15T12:12:19Z) - Semi-automatic Data Enhancement for Document-Level Relation Extraction
with Distant Supervision from Large Language Models [26.523153535336725]
ドキュメントレベルの関係抽出(DocRE)は、長いコンテキストから関係を抽出することを目的としている。
本稿では,大規模言語モデル (LLM) と自然言語推論 (NLI) モジュールを統合する手法を提案する。
DocGNREと呼ばれる拡張データセットを導入することで,提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-11-13T13:10:44Z) - Prompt2Model: Generating Deployable Models from Natural Language
Instructions [74.19816829003729]
大規模言語モデル(LLM)により、システムビルダーはプロンプトによって有能なNLPシステムを作成することができる。
言い換えれば、LSMは従来の特殊目的のNLPモデルとは逆のステップである。
本稿では,LLMに提供されるプロンプトのように自然言語によるタスク記述を行う汎用手法であるPrompt2Modelを提案する。
論文 参考訳(メタデータ) (2023-08-23T17:28:21Z) - Large Language Models for Automated Data Science: Introducing CAAFE for
Context-Aware Automated Feature Engineering [52.09178018466104]
データセットのセマンティックな特徴を生成するために、コンテキスト認識自動特徴工学(CAAFE)を導入する。
方法論的には単純だが、CAAFEは14のデータセットのうち11のパフォーマンスを改善している。
我々は,AutoMLシステムの範囲をセマンティックなAutoMLに拡張できるコンテキスト認識ソリューションの重要性を強調した。
論文 参考訳(メタデータ) (2023-05-05T09:58:40Z) - How to Unleash the Power of Large Language Models for Few-shot Relation
Extraction? [28.413620806193165]
本稿では,GPT-3.5による数ショット関係抽出のための主要な手法,文脈内学習とデータ生成について検討する。
テキスト内学習は,従来の素早い学習手法と同等のパフォーマンスを達成でき,大規模言語モデルによるデータ生成は,従来のソリューションを推し進めて,最先端の複数ショットの新たな結果が得られることを観察する。
論文 参考訳(メタデータ) (2023-05-02T15:55:41Z) - Demo of the Linguistic Field Data Management and Analysis System -- LiFE [1.2139158398361864]
LiFEは、オープンソースのWebベースの言語データ管理および分析アプリケーションである。
ユーザーは語彙項目、文、段落、オーディオ・ビジュアルコンテンツ、リッチ・グロス/アノテーションを保存できる。
対話的で印刷された辞書を生成し、自然言語処理ツールやモデルを訓練し、使用する。
論文 参考訳(メタデータ) (2022-03-22T03:34:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。