論文の概要: rollama: An R package for using generative large language models through Ollama
- arxiv url: http://arxiv.org/abs/2404.07654v1
- Date: Thu, 11 Apr 2024 11:37:18 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-12 14:19:15.579813
- Title: rollama: An R package for using generative large language models through Ollama
- Title(参考訳): rollama: Ollamaを通じて生成可能な大規模言語モデルを使用するためのRパッケージ
- Authors: Johannes B. Gruber, Maximilian Weber,
- Abstract要約: rollamaは、Ollama APIをラップするRパッケージである。
パッケージと学習の素材は、Ollamaを使ってテキストを注釈付けしたり、オープンソースのモデルでデータを想像したり、これらのモデルをドキュメントの埋め込みに利用するのを容易にすることに焦点を当てている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: rollama is an R package that wraps the Ollama API, which allows you to run different Generative Large Language Models (GLLM) locally. The package and learning material focus on making it easy to use Ollama for annotating textual or imagine data with open-source models as well as use these models for document embedding. But users can use or extend rollama to do essentially anything else that is possible through OpenAI's API, yet more private, reproducible and for free.
- Abstract(参考訳): rollamaはOllama APIをラップするRパッケージで、異なるジェネレーティブ大型言語モデル(GLLM)をローカルで実行することができる。
パッケージと学習の素材は、Ollamaを使ってテキストを注釈付けしたり、オープンソースのモデルでデータを想像したり、これらのモデルをドキュメントの埋め込みに利用するのを容易にすることに焦点を当てている。
しかし、ユーザーは、OpenAIのAPIを通じて可能なことは何でもできるが、よりプライベートで再現性があり、無料で、ロールマを使用または拡張することができる。
関連論文リスト
- RAFT: Adapting Language Model to Domain Specific RAG [75.63623523051491]
本稿では、ドメイン内の「オープンブック」設定において、モデルが質問に答える能力を改善するためのトレーニングレシピであるRetrieval Augmented FineTuning(RAFT)を紹介する。
RAFTは、質問に答える助けとなる関連文書から、動詞の正しいシーケンスを引用することで、これを達成します。
RAFTは、PubMed、HotpotQA、Gorillaデータセット全体のモデルのパフォーマンスを一貫して改善する。
論文 参考訳(メタデータ) (2024-03-15T09:26:02Z) - Generative Representational Instruction Tuning [89.76840377003178]
GritLM 7B がMassive Text Embedding Benchmark (MTEB) に新たな技術状況を設定する
GritLM 8x7Bは、私たちが試したすべてのオープンな生成言語モデルよりも優れています。
論文 参考訳(メタデータ) (2024-02-15T12:12:19Z) - ExaRanker-Open: Synthetic Explanation for IR using Open-Source LLMs [60.81649785463651]
ExaRanker-Openを導入し、オープンソース言語モデルを適用して、説明を生成する。
以上の結果から,LLMのサイズが大きくなるにつれて,説明の組み込みが神経ランク付けを継続的に促進することが明らかとなった。
論文 参考訳(メタデータ) (2024-02-09T11:23:14Z) - Semi-automatic Data Enhancement for Document-Level Relation Extraction
with Distant Supervision from Large Language Models [26.523153535336725]
ドキュメントレベルの関係抽出(DocRE)は、長いコンテキストから関係を抽出することを目的としている。
本稿では,大規模言語モデル (LLM) と自然言語推論 (NLI) モジュールを統合する手法を提案する。
DocGNREと呼ばれる拡張データセットを導入することで,提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2023-11-13T13:10:44Z) - Prompt2Model: Generating Deployable Models from Natural Language
Instructions [74.19816829003729]
大規模言語モデル(LLM)により、システムビルダーはプロンプトによって有能なNLPシステムを作成することができる。
言い換えれば、LSMは従来の特殊目的のNLPモデルとは逆のステップである。
本稿では,LLMに提供されるプロンプトのように自然言語によるタスク記述を行う汎用手法であるPrompt2Modelを提案する。
論文 参考訳(メタデータ) (2023-08-23T17:28:21Z) - Large Language Models for Automated Data Science: Introducing CAAFE for
Context-Aware Automated Feature Engineering [52.09178018466104]
データセットのセマンティックな特徴を生成するために、コンテキスト認識自動特徴工学(CAAFE)を導入する。
方法論的には単純だが、CAAFEは14のデータセットのうち11のパフォーマンスを改善している。
我々は,AutoMLシステムの範囲をセマンティックなAutoMLに拡張できるコンテキスト認識ソリューションの重要性を強調した。
論文 参考訳(メタデータ) (2023-05-05T09:58:40Z) - How to Unleash the Power of Large Language Models for Few-shot Relation
Extraction? [28.413620806193165]
本稿では,GPT-3.5による数ショット関係抽出のための主要な手法,文脈内学習とデータ生成について検討する。
テキスト内学習は,従来の素早い学習手法と同等のパフォーマンスを達成でき,大規模言語モデルによるデータ生成は,従来のソリューションを推し進めて,最先端の複数ショットの新たな結果が得られることを観察する。
論文 参考訳(メタデータ) (2023-05-02T15:55:41Z) - LongForm: Effective Instruction Tuning with Reverse Instructions [43.7029933201002]
本稿では,逆命令によって生成されるLongForm-Cデータセットを紹介する。
まず、C4やウィキペディアなどのコーパスから、多種多様な人文文書を選択する。
逆命令を用いた人書きコーパスの例を LLM で生成する。
論文 参考訳(メタデータ) (2023-04-17T17:36:35Z) - Demo of the Linguistic Field Data Management and Analysis System -- LiFE [1.2139158398361864]
LiFEは、オープンソースのWebベースの言語データ管理および分析アプリケーションである。
ユーザーは語彙項目、文、段落、オーディオ・ビジュアルコンテンツ、リッチ・グロス/アノテーションを保存できる。
対話的で印刷された辞書を生成し、自然言語処理ツールやモデルを訓練し、使用する。
論文 参考訳(メタデータ) (2022-03-22T03:34:10Z) - DIETERpy: a Python framework for The Dispatch and Investment Evaluation
Tool with Endogenous Renewables [62.997667081978825]
DIETERはオープンソースの電力セクターモデルであり、可変再生可能エネルギー源の非常に高いシェアで将来の設定を分析するように設計されている。
システム全体のコストを最小化し、様々な世代の固定および可変コスト、柔軟性、セクター結合オプションを含む。
我々は、GAMS(General Algebraic Modeling System)で記述された既存のモデルバージョンの上に構築されたDIETERpyを紹介し、それをPythonフレームワークで強化する。
論文 参考訳(メタデータ) (2020-10-02T09:27:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。