論文の概要: Flexible model composition in machine learning and its implementation in
MLJ
- arxiv url: http://arxiv.org/abs/2012.15505v1
- Date: Thu, 31 Dec 2020 08:49:43 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-18 02:11:49.109146
- Title: Flexible model composition in machine learning and its implementation in
MLJ
- Title(参考訳): 機械学習におけるフレキシブルモデル構成とMLJにおける実装
- Authors: Anthony D. Blaom and Sebastian J. Vollmer
- Abstract要約: 機械学習モデルをメタモデルに組み合わせた「学習ネットワーク」と呼ばれるグラフベースのプロトコルについて述べる。
学習ネットワークはwolpertのモデル積み重ねを含むのに十分柔軟であり,ベース学習者に対してサンプル外の予測を行うことが示されている。
- 参考スコア(独自算出の注目度): 1.1091975655053545
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A graph-based protocol called `learning networks' which combine assorted
machine learning models into meta-models is described. Learning networks are
shown to overcome several limitations of model composition as implemented in
the dominant machine learning platforms. After illustrating the protocol in
simple examples, a concise syntax for specifying a learning network,
implemented in the MLJ framework, is presented. Using the syntax, it is shown
that learning networks are are sufficiently flexible to include Wolpert's model
stacking, with out-of-sample predictions for the base learners.
- Abstract(参考訳): 様々な機械学習モデルをメタモデルに結合する「学習ネットワーク」と呼ばれるグラフベースのプロトコルについて述べる。
学習ネットワークは、支配的な機械学習プラットフォームで実装されているモデル構成のいくつかの制限を克服している。
プロトコルを簡単な例で説明した後、MLJフレームワークで実装された学習ネットワークを特定するための簡潔な構文を示す。
この構文を用いて、学習ネットワークはWolpertのモデルスタックを組み込むのに十分な柔軟性を持ち、ベース学習者に対してサンプル外予測を行う。
関連論文リスト
- Adaptive Convolutional Dictionary Network for CT Metal Artifact
Reduction [62.691996239590125]
本稿では,金属人工物削減のための適応畳み込み辞書ネットワーク(ACDNet)を提案する。
我々のACDNetは、トレーニングデータを介して、アーティファクトフリーCT画像の事前を自動で学習し、入力されたCT画像ごとに表現カーネルを適応的に調整することができる。
本手法は,モデルに基づく手法の明確な解釈可能性を継承し,学習に基づく手法の強力な表現能力を維持する。
論文 参考訳(メタデータ) (2022-05-16T06:49:36Z) - Mining Logical Event Schemas From Pre-Trained Language Models [0.0]
NESL(Neuro-Episodic Learner)は,大規模な言語モデル,FrameNet解析,単純な行動スキーマのセットを組み合わせたイベントスキーマ学習システムである。
言語モデルからの注意深いサンプリングは、状況のステレオタイプ的特性を強調し、無関係な詳細を強調するのに役立つことを示す。
論文 参考訳(メタデータ) (2022-04-12T16:41:18Z) - Graph-Assisted Communication-Efficient Ensemble Federated Learning [12.538755088321404]
コミュニケーション効率は、限られた通信帯域幅のため、連合学習において必要となる。
サーバは事前訓練されたモデルのサブセットを選択し、グラフの構造に基づいてアンサンブルモデルを構築する。
選択されたモデルのみがクライアントに送信されるため、特定の予算制約に違反しない。
論文 参考訳(メタデータ) (2022-02-27T20:25:44Z) - An Expectation-Maximization Perspective on Federated Learning [75.67515842938299]
フェデレーション学習は、データをデバイス上でプライベートにしながら、複数のクライアントにわたるモデルの分散トレーニングを記述する。
本稿では,サーバがクライアント固有のモデルパラメータに対して事前分布のパラメータを提供する階層的潜在変数モデルとして,サーバが設定したフェデレーション学習プロセスについて考察する。
我々は,単純なガウス先行とよく知られた期待最大化(EM)アルゴリズムのハードバージョンを用いて,そのようなモデルの学習は,フェデレーション学習環境における最も一般的なアルゴリズムであるFedAvgに対応することを示す。
論文 参考訳(メタデータ) (2021-11-19T12:58:59Z) - Distributionally Robust Recurrent Decoders with Random Network
Distillation [93.10261573696788]
本稿では,自動回帰言語モデルが推論中にOODコンテキストを無視できるように,ランダムネットワーク蒸留を用いたOOD検出に基づく手法を提案する。
提案手法をGRUアーキテクチャに適用し,複数の言語モデリング(LM)データセットの改善を実証する。
論文 参考訳(メタデータ) (2021-10-25T19:26:29Z) - Learning Prototype-oriented Set Representations for Meta-Learning [85.19407183975802]
集合構造データから学ぶことは、近年注目を集めている根本的な問題である。
本稿では,既存の要約ネットワークを改善するための新しい最適輸送方式を提案する。
さらに、少数ショット分類と暗黙的メタ生成モデリングの事例にインスタンス化する。
論文 参考訳(メタデータ) (2021-10-18T09:49:05Z) - Multiblock-Networks: A Neural Network Analog to Component Based Methods
for Multi-Source Data [0.0]
本稿では,コンポーネントベース統計モデルの概念をニューラルネットワークアーキテクチャに転送する手法を提案する。
これにより、ニューラルネットワークの柔軟性と、マルチブロック手法におけるブロック関連性を解釈する概念を組み合わせる。
この結果から,通常のフィードフォワードニューラルネットワークの性能に適合しながら,マルチブロックネットワークが基本モデル解釈を可能にしたことが示唆された。
論文 参考訳(メタデータ) (2021-09-21T16:00:15Z) - Multi-Branch Deep Radial Basis Function Networks for Facial Emotion
Recognition [80.35852245488043]
放射状基底関数(RBF)ユニットによって形成された複数の分岐で拡張されたCNNベースのアーキテクチャを提案する。
RBFユニットは、中間表現を用いて類似のインスタンスで共有される局所パターンをキャプチャする。
提案手法は,提案手法の競争力を高めるためのローカル情報の導入であることを示す。
論文 参考訳(メタデータ) (2021-09-07T21:05:56Z) - CARLS: Cross-platform Asynchronous Representation Learning System [24.96062146968367]
本稿では,既存のディープラーニングフレームワークの能力向上のための新しいフレームワークであるCARLSを提案する。
CARLSにより効率的にスケールアップできる3つの学習パラダイムについて述べる。
論文 参考訳(メタデータ) (2021-05-26T21:19:02Z) - Edge-assisted Democratized Learning Towards Federated Analytics [67.44078999945722]
本稿では,エッジ支援型民主化学習機構であるEdge-DemLearnの階層的学習構造を示す。
また、Edge-DemLearnを柔軟なモデルトレーニングメカニズムとして検証し、リージョンに分散制御と集約の方法論を構築する。
論文 参考訳(メタデータ) (2020-12-01T11:46:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。