論文の概要: Flexible model composition in machine learning and its implementation in
MLJ
- arxiv url: http://arxiv.org/abs/2012.15505v1
- Date: Thu, 31 Dec 2020 08:49:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-18 02:11:49.109146
- Title: Flexible model composition in machine learning and its implementation in
MLJ
- Title(参考訳): 機械学習におけるフレキシブルモデル構成とMLJにおける実装
- Authors: Anthony D. Blaom and Sebastian J. Vollmer
- Abstract要約: 機械学習モデルをメタモデルに組み合わせた「学習ネットワーク」と呼ばれるグラフベースのプロトコルについて述べる。
学習ネットワークはwolpertのモデル積み重ねを含むのに十分柔軟であり,ベース学習者に対してサンプル外の予測を行うことが示されている。
- 参考スコア(独自算出の注目度): 1.1091975655053545
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A graph-based protocol called `learning networks' which combine assorted
machine learning models into meta-models is described. Learning networks are
shown to overcome several limitations of model composition as implemented in
the dominant machine learning platforms. After illustrating the protocol in
simple examples, a concise syntax for specifying a learning network,
implemented in the MLJ framework, is presented. Using the syntax, it is shown
that learning networks are are sufficiently flexible to include Wolpert's model
stacking, with out-of-sample predictions for the base learners.
- Abstract(参考訳): 様々な機械学習モデルをメタモデルに結合する「学習ネットワーク」と呼ばれるグラフベースのプロトコルについて述べる。
学習ネットワークは、支配的な機械学習プラットフォームで実装されているモデル構成のいくつかの制限を克服している。
プロトコルを簡単な例で説明した後、MLJフレームワークで実装された学習ネットワークを特定するための簡潔な構文を示す。
この構文を用いて、学習ネットワークはWolpertのモデルスタックを組み込むのに十分な柔軟性を持ち、ベース学習者に対してサンプル外予測を行う。
関連論文リスト
- Leveraging advances in machine learning for the robust classification and interpretation of networks [0.0]
シミュレーションアプローチでは、Erd"os-R'enyiやSmall-worldのような適切なネットワーク生成モデルを選択する。
我々は、解釈可能な機械学習の進歩を利用して、様々なネットワーク属性に基づいて、生成モデルによってシミュレーションされたネットワークを分類する。
論文 参考訳(メタデータ) (2024-03-20T00:24:23Z) - Aggregated f-average Neural Network for Interpretable Ensembling [25.818919790407016]
本稿では,弱い学習者の予測を最適に集約するために,異なる種類の平均をモデル化し,組み合わせる,集約されたf平均(AFA)浅部ニューラルネットワークを提案する。
我々は、その解釈可能なアーキテクチャと単純なトレーニング戦略を強調し、その優れたパフォーマンスを、数発のクラスインクリメンタルラーニングの問題に立証する。
論文 参考訳(メタデータ) (2023-10-09T09:43:08Z) - Evaluating and Explaining Large Language Models for Code Using Syntactic
Structures [74.93762031957883]
本稿では,コード用大規模言語モデルに特有の説明可能性手法であるASTxplainerを紹介する。
その中核にあるASTxplainerは、トークン予測をASTノードに整合させる自動メソッドを提供する。
私たちは、最も人気のあるGitHubプロジェクトのキュレートデータセットを使用して、コード用の12の人気のあるLLMに対して、実証的な評価を行います。
論文 参考訳(メタデータ) (2023-08-07T18:50:57Z) - Language models are weak learners [71.33837923104808]
本研究では,プロンプトベースの大規模言語モデルは弱い学習者として効果的に動作可能であることを示す。
これらのモデルをブースティングアプローチに組み込むことで、モデル内の知識を活用して、従来のツリーベースのブースティングよりも優れています。
結果は、プロンプトベースのLLMが、少数の学習者だけでなく、より大きな機械学習パイプラインのコンポーネントとして機能する可能性を示している。
論文 参考訳(メタデータ) (2023-06-25T02:39:19Z) - Multi-Class Unlearning for Image Classification via Weight Filtering [44.707144011189335]
Machine Unlearningは、ネットワークからトレーニングデータポイントの影響を選択的に除去するための新興パラダイムである。
メモリ行列を用いてネットワークのコンポーネントを調整し、トレーニング後の任意のクラスに対して選択的な未学習動作を示す。
コンボリューションとトランスフォーマーベースのバックボーンを用いた,小規模・中規模の画像分類データセット上で,提案手法を検証した。
論文 参考訳(メタデータ) (2023-04-04T18:01:59Z) - Knowledge Transfer For On-Device Speech Emotion Recognition with Neural
Structured Learning [19.220263739291685]
音声感情認識(SER)は、ヒューマン・コンピュータ・インタラクション(HCI)において人気のある研究トピックである。
合成グラフ構築によるニューラル構造化学習(NSL)フレームワークを提案する。
実験の結果,音声サンプルとグラフを用いた軽量SERモデルの訓練は,小さなSERモデルを生成するだけでなく,モデル性能を向上させることができることがわかった。
論文 参考訳(メタデータ) (2022-10-26T18:38:42Z) - An Expectation-Maximization Perspective on Federated Learning [75.67515842938299]
フェデレーション学習は、データをデバイス上でプライベートにしながら、複数のクライアントにわたるモデルの分散トレーニングを記述する。
本稿では,サーバがクライアント固有のモデルパラメータに対して事前分布のパラメータを提供する階層的潜在変数モデルとして,サーバが設定したフェデレーション学習プロセスについて考察する。
我々は,単純なガウス先行とよく知られた期待最大化(EM)アルゴリズムのハードバージョンを用いて,そのようなモデルの学習は,フェデレーション学習環境における最も一般的なアルゴリズムであるFedAvgに対応することを示す。
論文 参考訳(メタデータ) (2021-11-19T12:58:59Z) - CARLS: Cross-platform Asynchronous Representation Learning System [24.96062146968367]
本稿では,既存のディープラーニングフレームワークの能力向上のための新しいフレームワークであるCARLSを提案する。
CARLSにより効率的にスケールアップできる3つの学習パラダイムについて述べる。
論文 参考訳(メタデータ) (2021-05-26T21:19:02Z) - Region Comparison Network for Interpretable Few-shot Image
Classification [97.97902360117368]
新しいクラスのモデルをトレーニングするために、ラベル付きサンプルの限られた数だけを効果的に活用するための画像分類が提案されている。
本研究では,領域比較ネットワーク (RCN) と呼ばれる距離学習に基づく手法を提案する。
また,タスクのレベルからカテゴリへの解釈可能性の一般化も提案する。
論文 参考訳(メタデータ) (2020-09-08T07:29:05Z) - Explanation-Guided Training for Cross-Domain Few-Shot Classification [96.12873073444091]
クロスドメイン・ショット分類タスク(CD-FSC)は、データセットで表されるドメインをまたいで一般化する要件と、少数ショット分類を組み合わせたものである。
既存のFSCモデルに対する新しいトレーニング手法を提案する。
説明誘導学習はモデル一般化を効果的に改善することを示す。
論文 参考訳(メタデータ) (2020-07-17T07:28:08Z) - Prototypical Contrastive Learning of Unsupervised Representations [171.3046900127166]
原型コントラスト学習(Prototypeal Contrastive Learning, PCL)は、教師なし表現学習法である。
PCLは暗黙的にデータのセマンティック構造を学習された埋め込み空間にエンコードする。
PCLは、複数のベンチマークで最先端のインスタンスワイド・コントラスト学習法より優れている。
論文 参考訳(メタデータ) (2020-05-11T09:53:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。