論文の概要: End-to-End Optimization and Learning for Multiagent Ensembles
- arxiv url: http://arxiv.org/abs/2211.00251v1
- Date: Tue, 1 Nov 2022 03:37:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-02 13:33:37.396229
- Title: End-to-End Optimization and Learning for Multiagent Ensembles
- Title(参考訳): マルチエージェントアンサンブルのエンドツーエンド最適化と学習
- Authors: James Kotary, Vincenzo Di Vito, Ferdinando Fioretto
- Abstract要約: マルチエージェントアンサンブル学習は、正確で堅牢な機械学習モデルを作成することを目的としたアルゴリズムの重要なクラスである。
本稿では、制約付き最適化と学習のユニークな統合を提案し、専門的なコンセンサスルールを導出する。
結果として得られる戦略は、エンドツーエンドのマルチエージェントアンサンブル学習(e2e-MEL)と呼ばれ、特定の入力サンプルと組み合わせるための適切な予測子を選択することを学ぶ。
- 参考スコア(独自算出の注目度): 37.99501959301896
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multiagent ensemble learning is an important class of algorithms aimed at
creating accurate and robust machine learning models by combining predictions
from individual agents. A key challenge for the design of these models is to
create effective rules to combine individual predictions for any particular
input sample.
This paper addresses this challenge and proposes a unique integration of
constrained optimization and learning to derive specialized consensus rules to
compose accurate predictions from a pretrained ensemble. The resulting
strategy, called end-to-end Multiagent ensemble Learning (e2e-MEL), learns to
select appropriate predictors to combine for a particular input sample. The
paper shows how to derive the ensemble learning task into a differentiable
selection program which is trained end-to-end within the ensemble learning
model. Results over standard benchmarks demonstrate the ability of e2e-MEL to
substantially outperform conventional consensus rules in a variety of settings.
- Abstract(参考訳): マルチエージェントアンサンブル学習(multiagent ensemble learning)は、個々のエージェントからの予測を組み合わせることによって、正確で堅牢な機械学習モデルを作成するための重要なアルゴリズムである。
これらのモデルを設計する上で重要な課題は、特定の入力サンプルに対して個別の予測を組み合わせる効果的なルールを作ることである。
本稿では,制約付き最適化と学習のユニークな統合により,事前学習したアンサンブルから正確な予測を行うための特別なコンセンサスルールを導出することを提案する。
その結果得られた戦略は、エンドツーエンドのマルチエージェントアンサンブル学習(e2e-mel)と呼ばれ、特定の入力サンプルを組み合わせる適切な予測器を選択することを学ぶ。
本論文は,アンサンブル学習モデル内で訓練されたエンドツーエンド選択プログラムにアンサンブル学習タスクを導出する方法を示す。
標準ベンチマークの結果は、e2e-MELが様々な設定で従来のコンセンサスルールを大幅に上回っていることを示している。
関連論文リスト
- Hit the Sweet Spot! Span-Level Ensemble for Large Language Models [8.34562564266839]
本研究では,リアルタイム調整の必要性と正確なアンサンブル決定に必要な情報とを効果的にバランスさせるスパンレベルアンサンブル手法であるSweetSpanを提案する。
まず、各候補モデルを独立して共有プレフィックスに基づいて候補スパンを生成する。
第二に、難易度スコアを計算して、候補モデル間の相互評価を容易にし、不誠実なスコアを抽出してロバストなスパン選択を実現する。
論文 参考訳(メタデータ) (2024-09-27T09:41:29Z) - An incremental preference elicitation-based approach to learning potentially non-monotonic preferences in multi-criteria sorting [53.36437745983783]
まず最適化モデルを構築し,非単調な選好をモデル化する。
本稿では,情報量測定手法と質問選択戦略を考案し,各イテレーションにおいて最も情報に富む選択肢を特定する。
2つのインクリメンタルな選好に基づくアルゴリズムは、潜在的に単調な選好を学習するために開発された。
論文 参考訳(メタデータ) (2024-09-04T14:36:20Z) - A tutorial on learning from preferences and choices with Gaussian Processes [0.7234862895932991]
このチュートリアルは、既存の文献の特定のギャップに対処する新しいGPベースのモデルを導入しながら、確立された研究の上に構築されている。
このフレームワークは、ランダムなユーティリティモデル、識別の限界、およびオブジェクトとラベルの両方に矛盾するユーティリティを持つシナリオを含む嗜好学習モデルの構築を可能にする。
論文 参考訳(メタデータ) (2024-03-18T13:40:48Z) - Universal Semi-supervised Model Adaptation via Collaborative Consistency
Training [92.52892510093037]
我々は、Universal Semi-supervised Model Adaptation (USMA)と呼ばれる現実的で挑戦的なドメイン適応問題を導入する。
本稿では,2つのモデル間の予測整合性を規則化する協調的整合性トレーニングフレームワークを提案する。
実験により,いくつかのベンチマークデータセットにおける本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-07-07T08:19:40Z) - Data-Free Diversity-Based Ensemble Selection For One-Shot Federated
Learning in Machine Learning Model Market [2.9046424358155236]
単発フェデレーション学習によって生成されるモデルのアンサンブル選択問題に対処するため,DeDESと呼ばれるデータ自由多様性に基づく新しい手法を提案する。
提案手法は、5つのデータセットと4つの異なるモデル構造よりも優れた性能と高い効率を実現することができる。
論文 参考訳(メタデータ) (2023-02-23T02:36:27Z) - Autoselection of the Ensemble of Convolutional Neural Networks with
Second-Order Cone Programming [0.8029049649310213]
本研究では,畳み込みニューラルネットワーク(CNN)のアンサンブルを推定する数学的モデルを提案する。
提案手法は, CIFAR-10, CIFAR-100 および MNIST データセットで検証される。
論文 参考訳(メタデータ) (2023-02-12T16:18:06Z) - Model ensemble instead of prompt fusion: a sample-specific knowledge
transfer method for few-shot prompt tuning [85.55727213502402]
我々は、ソースタスクのソフトプロンプトから知識を伝達することで、プロンプトチューニングにおける数ショットのパフォーマンスを改善することに集中する。
我々はソースモデル(SESoM)のサンプル固有アンサンブルを提案する。
SESoMは、ソースモデルが出力されるときに、ターゲットの各サンプルに対するソースモデルのコントリビューションを個別に調整することを学ぶ。
論文 参考訳(メタデータ) (2022-10-23T01:33:16Z) - Auxiliary Class Based Multiple Choice Learning [0.0]
本稿では,Auxiliary class based Multiple Choice Learning (AMCL) と呼ばれる高度なアンサンブル手法を提案する。
AMCLのパフォーマンスは、アンサンブルのメンバーとしてさまざまなネットワークでトレーニングされた公開データセットのほとんどで、他のすべてのものよりも優れています。
論文 参考訳(メタデータ) (2021-08-06T05:55:46Z) - Learning to Select Base Classes for Few-shot Classification [96.92372639495551]
我々は、数ショットモデルの一般化性能を示す指標として、類似度比を用いる。
次に、類似度比に対する部分モジュラー最適化問題として基底クラス選択問題を定式化する。
論文 参考訳(メタデータ) (2020-04-01T09:55:18Z) - Stepwise Model Selection for Sequence Prediction via Deep Kernel
Learning [100.83444258562263]
本稿では,モデル選択の課題を解決するために,新しいベイズ最適化(BO)アルゴリズムを提案する。
結果として得られる複数のブラックボックス関数の最適化問題を協調的かつ効率的に解くために,ブラックボックス関数間の潜在的な相関を利用する。
我々は、シーケンス予測のための段階的モデル選択(SMS)の問題を初めて定式化し、この目的のために効率的な共同学習アルゴリズムを設計し、実証する。
論文 参考訳(メタデータ) (2020-01-12T09:42:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。