論文の概要: MKLpy: a python-based framework for Multiple Kernel Learning
- arxiv url: http://arxiv.org/abs/2007.09982v1
- Date: Mon, 20 Jul 2020 10:10:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-08 12:47:30.984617
- Title: MKLpy: a python-based framework for Multiple Kernel Learning
- Title(参考訳): MKLpy: マルチカーネル学習のためのpythonベースのフレームワーク
- Authors: Ivano Lauriola and Fabio Aiolli
- Abstract要約: マルチカーネル学習のためのピソンベースのフレームワークであるMKLpyを紹介する。
このライブラリは、分類タスクのための多重カーネル学習アルゴリズム、異なるデータ型のためのカーネル関数を計算するメカニズム、評価戦略を提供する。
- 参考スコア(独自算出の注目度): 4.670305538969914
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Multiple Kernel Learning is a recent and powerful paradigm to learn the
kernel function from data. In this paper, we introduce MKLpy, a python-based
framework for Multiple Kernel Learning. The library provides Multiple Kernel
Learning algorithms for classification tasks, mechanisms to compute kernel
functions for different data types, and evaluation strategies. The library is
meant to maximize the usability and to simplify the development of novel
solutions.
- Abstract(参考訳): マルチカーネル学習は、データからカーネル関数を学ぶための、最近で強力なパラダイムである。
本稿では,マルチカーネル学習のためのpythonベースのフレームワークであるmklpyを紹介する。
このライブラリは、分類タスクのための多重カーネル学習アルゴリズム、異なるデータ型のためのカーネル関数を計算するメカニズム、評価戦略を提供する。
このライブラリは、ユーザビリティを最大化し、新しいソリューションの開発を簡単にすることを目的としている。
関連論文リスト
- Snacks: a fast large-scale kernel SVM solver [0.8602553195689513]
SnacksはKernel Support Vector Machines用の新しい大規模ソルバである。
スナックは、カーネル行列の「Nystr」近似と、下次法の加速変種に依存している。
論文 参考訳(メタデータ) (2023-04-17T04:19:20Z) - A new trigonometric kernel function for SVM [0.0]
本稿では,機械学習アルゴリズムのパラメータを1つ含む新しい三角関数を提案する。
また,カーネル-SVM法とカーネル-SVR法の実証評価を行い,その性能を実証した。
論文 参考訳(メタデータ) (2022-10-16T17:10:52Z) - Fast Sketching of Polynomial Kernels of Polynomial Degree [61.83993156683605]
他のカーネルはしばしばテイラー級数展開を通じてカーネルによって近似されるので、カーネルは特に重要である。
スケッチの最近の技術は、カーネルの$q$という難解な程度に実行時間に依存することを減らしている。
我々は、この実行時間を大幅に改善する新しいスケッチを、先頭の注文項で$q$への依存を取り除くことで提供します。
論文 参考訳(メタデータ) (2021-08-21T02:14:55Z) - Kernel Continual Learning [117.79080100313722]
カーネル連続学習は、破滅的な忘れ事に取り組むための、シンプルだが効果的な連続学習の変種である。
エピソードメモリユニットは、カーネルリッジ回帰に基づいてタスク固有の分類器を学ぶために、各タスクのサンプルのサブセットを格納する。
タスク毎にデータ駆動カーネルを学ぶための変動ランダム機能。
論文 参考訳(メタデータ) (2021-07-12T22:09:30Z) - MetaKernel: Learning Variational Random Features with Limited Labels [120.90737681252594]
少数の注釈付きサンプルから学習し、新しいタスクでうまく一般化できるという根本的かつ困難な問題に、少数のショットラーニングが対処します。
マルチショット学習のためのランダムなフーリエ機能を備えたメタラーニングカーネルをMeta Kernelと呼びます。
論文 参考訳(メタデータ) (2021-05-08T21:24:09Z) - Neural Generalization of Multiple Kernel Learning [2.064612766965483]
マルチカーネル学習は、カーネルベースの手法でカーネル関数を学習する従来の方法である。
ディープラーニングモデルは、複数の層を通してデータに非線形変換を適用することで、複雑な関数を学習することができる。
典型的なMKLアルゴリズムは線形活性化関数を持つ一層ニューラルネットワークとして解釈可能であることを示す。
論文 参考訳(メタデータ) (2021-02-26T07:28:37Z) - Deep Learning Framework From Scratch Using Numpy [0.0]
この研究は、完全に汎用的なディープラーニングフレームワークをゼロから厳格に開発したものである。
ディープラーニングの基本コンポーネントは基本計算から開発され、PythonとNumpyライブラリのみを使用して、合理的なオブジェクト指向アプローチで実装されている。
ArrayFlowというフレームワークを使って解決された問題の例は、コンピュータビジョン分類タスク、カテナリーの形状の解法、二階微分方程式などである。
論文 参考訳(メタデータ) (2020-11-17T06:28:05Z) - Learning Manifold Implicitly via Explicit Heat-Kernel Learning [63.354671267760516]
そこで,本研究では,熱カーネルを学習することで,多様体情報を暗黙的に取得する,暗黙的多様体学習の概念を提案する。
学習した熱カーネルは、データ生成のための深層生成モデル(DGM)やベイズ推論のためのスタイン変分勾配Descentなど、さまざまなカーネルベースの機械学習モデルに適用することができる。
論文 参考訳(メタデータ) (2020-10-05T03:39:58Z) - Captum: A unified and generic model interpretability library for PyTorch [49.72749684393332]
我々は,PyTorch用の新しい,統一されたオープンソースモデル解釈可能性ライブラリを紹介する。
このライブラリには、多くの勾配と摂動に基づく属性アルゴリズムの汎用的な実装が含まれている。
分類モデルと非分類モデルの両方に使用できる。
論文 参考訳(メタデータ) (2020-09-16T18:57:57Z) - Kernel methods library for pattern analysis and machine learning in
python [0.0]
kernelmethodsライブラリは、ドメインに依存しない方法で、python MLエコシステムにおける重要な空白を埋めます。
このライブラリは、カーネルベースの操作を効率的にするための、よく定義された多くのクラスを提供する。
論文 参考訳(メタデータ) (2020-05-27T16:44:42Z) - PolyScientist: Automatic Loop Transformations Combined with Microkernels
for Optimization of Deep Learning Primitives [55.79741270235602]
深層学習カーネル開発のためのハイブリッドソリューションを開発する。
我々は、高度な多面体技術を用いて、パフォーマンスのために外部ループを自動的に調整する。
論文 参考訳(メタデータ) (2020-02-06T08:02:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。