論文の概要: MLJ: A Julia package for composable machine learning
- arxiv url: http://arxiv.org/abs/2007.12285v2
- Date: Tue, 3 Nov 2020 23:06:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-07 12:04:12.790715
- Title: MLJ: A Julia package for composable machine learning
- Title(参考訳): MLJ: 構成可能な機械学習のためのJuliaパッケージ
- Authors: Anthony D. Blaom, Franz Kiraly, Thibaut Lienart, Yiannis Simillides,
Diego Arenas, Sebastian J. Vollmer
- Abstract要約: MLJは、Juliaやその他の言語で記述された機械学習モデルと対話するための、オープンソースのソフトウェアパッケージである。
モデルの選択、チューニング、評価、構成、比較のためのツールとメタアルゴリズムを提供する。
- 参考スコア(独自算出の注目度): 0.8661220987937566
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: MLJ (Machine Learing in Julia) is an open source software package providing a
common interface for interacting with machine learning models written in Julia
and other languages. It provides tools and meta-algorithms for selecting,
tuning, evaluating, composing and comparing those models, with a focus on
flexible model composition. In this design overview we detail chief novelties
of the framework, together with the clear benefits of Julia over the dominant
multi-language alternatives.
- Abstract(参考訳): MLJ(Machine Learing in Julia)は、Juliaや他の言語で書かれた機械学習モデルと対話するための共通インターフェースを提供するオープンソースソフトウェアパッケージである。
フレキシブルなモデル構成に焦点を当てたモデルの選択、チューニング、評価、構成、比較のためのツールとメタアルゴリズムを提供する。
この設計概要では、主要な多言語代替案に対するJuliaの明確なメリットとともに、フレームワークの主な新規性について詳述する。
関連論文リスト
- Towards Completeness-Oriented Tool Retrieval for Large Language Models [60.733557487886635]
現実世界のシステムは多種多様なツールを組み込んでおり、全てのツールを大規模言語モデルに入力することは不可能である。
既存のツール検索手法は主にユーザクエリとツール記述間のセマンティックマッチングに焦点を当てている。
我々は,ユーザクエリとツール記述のセマンティックな類似性だけでなく,ツールの協調的情報も考慮した,新しいモデル診断型協調学習型ツール検索手法であるCOLTを提案する。
論文 参考訳(メタデータ) (2024-05-25T06:41:23Z) - ALICE: Combining Feature Selection and Inter-Rater Agreeability for Machine Learning Insights [0.0]
本稿では,新たなPythonライブラリであるAutomated Learning for Insightful Comparison and Evaluation(ALICE)を提案する。
これは、ブラックボックス機械学習モデルに対する洞察を求めるために、従来の特徴選択と、ユーザフレンドリなシンプルな方法で、ラタ間適合性の概念を融合する。
このフレームワークは、MLにおける解釈可能性の主要な概念の概要に続いて提案されている。
論文 参考訳(メタデータ) (2024-04-13T17:34:58Z) - OmniFusion Technical Report [7.332426123896801]
事前訓練された大言語モデル(LLM)に基づくテキストOmniFusionモデルを提案する。
我々は、テキストとビジュアルデータの結合性を改善するために、いくつかのアーキテクチャ設計原則を評価し、比較する。
8つのビジュアル言語ベンチマークの実験では、最高のOmniFusionセットアップのトップスコアが示されています。
論文 参考訳(メタデータ) (2024-04-09T11:00:19Z) - CMULAB: An Open-Source Framework for Training and Deployment of Natural Language Processing Models [59.91221728187576]
本稿では,NLPモデルのモデル展開と連続的なヒューマン・イン・ザ・ループの微調整を簡単にするオープンソースフレームワークであるCMU言語バックエンドを紹介する。
CMULABは、マルチ言語モデルのパワーを活用して、音声認識、OCR、翻訳、構文解析などの既存のツールを新しい言語に迅速に適応し、拡張することができる。
論文 参考訳(メタデータ) (2024-04-03T02:21:46Z) - ToolEyes: Fine-Grained Evaluation for Tool Learning Capabilities of
Large Language Models in Real-world Scenarios [48.38419686697733]
本稿では,大規模言語モデルのツール学習能力を評価するためのシステムであるToolEyesを提案する。
このシステムは7つの現実シナリオを慎重に分析し、ツール学習においてLLMに不可欠な5次元を解析する。
ToolEyesには,約600のツールを備えたツールライブラリが組み込まれている。
論文 参考訳(メタデータ) (2024-01-01T12:49:36Z) - CoLLiE: Collaborative Training of Large Language Models in an Efficient
Way [59.09824823710863]
CoLLiEは、大規模な言語モデルの協調トレーニングを容易にする効率的なライブラリである。
モジュール設計と包括的な機能により、CoLLiEは効率性、使いやすさ、カスタマイズのバランスのとれたブレンドを提供する。
論文 参考訳(メタデータ) (2023-12-01T08:02:16Z) - Reformulating Vision-Language Foundation Models and Datasets Towards
Universal Multimodal Assistants [65.47222691674074]
Muffinフレームワークは、事前訓練された視覚言語モデルを使用して視覚信号のプロバイダとして機能する。
UniMM-Chatデータセットはデータセットの相補性を探求し、高品質で多様なマルチモーダル命令を生成する。
論文 参考訳(メタデータ) (2023-10-01T12:35:18Z) - Leveraging Language to Learn Program Abstractions and Search Heuristics [66.28391181268645]
LAPS(Language for Abstraction and Program Search)は、自然言語アノテーションを用いて、ライブラリとニューラルネットワークによる合成のための検索モデルの共同学習をガイドする手法である。
最先端のライブラリ学習システム(DreamCoder)に統合されると、LAPSは高品質なライブラリを生成し、検索効率と一般化を改善する。
論文 参考訳(メタデータ) (2021-06-18T15:08:47Z) - Physics-Informed Machine Learning Simulator for Wildfire Propagation [0.0]
この研究は、広く使用されている気象研究と予測WRF-SFIREシミュレーターのいくつかの重要な部分を再実装する可能性を評価することである。
主なプログラミング言語はJuliaである。Juliaはインタプリタ言語よりも優れたパーファマンスを提供するコンパイル言語である。
論文 参考訳(メタデータ) (2020-12-12T14:13:26Z) - The JuliaConnectoR: a functionally oriented interface for integrating
Julia in R [0.0]
我々は、CRANリポジトリとGitHubから入手可能なRパッケージJuliaConnectoRを開発した。
保守性と安定性のために、TCP上でRとJulia間の通信をベースとします。
これにより、JuliaでR拡張を開発するのや、RでJuliaパッケージから機能を単に呼び出すのが簡単になる。
論文 参考訳(メタデータ) (2020-05-13T14:18:34Z) - Julia Language in Machine Learning: Algorithms, Applications, and Open
Issues [5.666843255747851]
機械学習は、科学と工学の分野で開発を推進している。
現在、機械学習アルゴリズムの開発に最もよく使われているプログラミング言語は、PythonとC/C ++である。
本稿では,機械学習におけるJulia言語の適用に関する研究成果と開発状況を要約する。
論文 参考訳(メタデータ) (2020-03-23T09:31:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。