論文の概要: SWAG: A Wrapper Method for Sparse Learning
- arxiv url: http://arxiv.org/abs/2006.12837v2
- Date: Mon, 1 Nov 2021 01:12:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 21:58:41.764970
- Title: SWAG: A Wrapper Method for Sparse Learning
- Title(参考訳): SWAG:スパースラーニングのためのラッパー手法
- Authors: Roberto Molinari, Gaetan Bakalli, St\'ephane Guerrier, Cesare
Miglioli, Samuel Orso, Mucyo Karemera, Olivier Scaillet
- Abstract要約: 本稿では,低データ収集とストレージコストを伴って,スパース学習者のライブラリを見つける手順を提案する。
この新しい手法は、容易に解釈できる低次元の属性ネットワークを提供する。
我々はこのアルゴリズムを "Sparse Wrapper AlGorithm" (SWAG) と呼ぶ。
- 参考スコア(独自算出の注目度): 0.13854111346209866
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The majority of machine learning methods and algorithms give high priority to
prediction performance which may not always correspond to the priority of the
users. In many cases, practitioners and researchers in different fields, going
from engineering to genetics, require interpretability and replicability of the
results especially in settings where, for example, not all attributes may be
available to them. As a consequence, there is the need to make the outputs of
machine learning algorithms more interpretable and to deliver a library of
"equivalent" learners (in terms of prediction performance) that users can
select based on attribute availability in order to test and/or make use of
these learners for predictive/diagnostic purposes. To address these needs, we
propose to study a procedure that combines screening and wrapper approaches
which, based on a user-specified learning method, greedily explores the
attribute space to find a library of sparse learners with consequent low data
collection and storage costs. This new method (i) delivers a low-dimensional
network of attributes that can be easily interpreted and (ii) increases the
potential replicability of results based on the diversity of attribute
combinations defining strong learners with equivalent predictive power. We call
this algorithm "Sparse Wrapper AlGorithm" (SWAG).
- Abstract(参考訳): 機械学習の手法やアルゴリズムの大部分は、ユーザの優先度に必ずしも一致するとは限らない予測性能に高い優先度を与える。
多くの場合、工学から遺伝学までさまざまな分野の実践者や研究者は、特にすべての属性が利用できるわけではない設定において、結果の解釈可能性と再現性を必要としている。
その結果、機械学習アルゴリズムのアウトプットをより解釈しやすくし、ユーザが属性の可用性に基づいて選択できる(予測性能の観点から)「等価な」学習者のライブラリを提供することが、これらの学習者をテストおよび/または予測/識別目的で利用するために必要となる。
そこで本研究では,利用者が指定した学習方法に基づき,属性空間をゆるやかに探索し,データ収集とストレージコストの低さを生かした疎学習者のライブラリを探索する,スクリーニングとラッパーのアプローチを組み合わせた手法を提案する。
この新しい方法は
(i)容易に解釈できる属性の低次元ネットワークを提供する。
(ii)強力な学習者と同等の予測力を定義する属性の組み合わせの多様性に基づき、結果の潜在的な再現性を高める。
我々はこのアルゴリズムを "Sparse Wrapper AlGorithm" (SWAG) と呼ぶ。
関連論文リスト
- LLM-Select: Feature Selection with Large Language Models [64.5099482021597]
大規模言語モデル(LLM)は、データサイエンスの標準ツールに匹敵するパフォーマンスで、最も予測可能な機能を選択することができる。
以上の結果から,LSMはトレーニングに最適な機能を選択するだけでなく,そもそもどの機能を収集すべきかを判断する上でも有用である可能性が示唆された。
論文 参考訳(メタデータ) (2024-07-02T22:23:40Z) - Algorithmic failure as a humanities methodology: machine learning's
mispredictions identify rich cases for qualitative analysis [0.0]
私は単純な機械学習アルゴリズムを訓練し、架空のキャラクターの情報だけを使ってアクションがアクティブか受動的かを予測する。
この結果は、失敗予測は質的分析のリッチケースを特定するために生産的に使用できるという、Munkらの理論を支持する。
さらに、この手法がどのような種類のデータに役立ち、どの種類の機械学習が最も生成性が高いかを理解するために、さらなる研究が必要である。
論文 参考訳(メタデータ) (2023-05-19T13:24:32Z) - Meta-Wrapper: Differentiable Wrapping Operator for User Interest
Selection in CTR Prediction [97.99938802797377]
クリックスルー率(CTR)予測は、ユーザーが商品をクリックする確率を予測することを目的としており、リコメンデーションシステムにおいてますます重要になっている。
近年,ユーザの行動からユーザの興味を自動的に抽出する深層学習モデルが大きな成功を収めている。
そこで我々は,メタラッパー(Meta-Wrapper)と呼ばれるラッパー手法の枠組みに基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2022-06-28T03:28:15Z) - The Information Geometry of Unsupervised Reinforcement Learning [133.20816939521941]
教師なしスキル発見(英語: Unsupervised skill discovery)とは、報酬関数にアクセスせずに一連のポリシーを学ぶアルゴリズムのクラスである。
教師なしのスキル発見アルゴリズムは、あらゆる報酬関数に最適なスキルを学習しないことを示す。
論文 参考訳(メタデータ) (2021-10-06T13:08:36Z) - Generative and reproducible benchmarks for comprehensive evaluation of
machine learning classifiers [6.605210393590192]
Diverse and GENerative ML Benchmark (DIGEN)は、機械学習アルゴリズムのベンチマークのための合成データセットの集合である。
詳細なドキュメンテーションと分析を備えたリソースはオープンソースであり、GitHubで公開されている。
論文 参考訳(メタデータ) (2021-07-14T03:58:02Z) - Combining Feature and Instance Attribution to Detect Artifacts [62.63504976810927]
トレーニングデータアーティファクトの識別を容易にする手法を提案する。
提案手法は,トレーニングデータのアーティファクトの発見に有効であることを示す。
我々は,これらの手法が実際にNLP研究者にとって有用かどうかを評価するために,小規模なユーザスタディを実施している。
論文 参考訳(メタデータ) (2021-07-01T09:26:13Z) - Discriminative, Generative and Self-Supervised Approaches for
Target-Agnostic Learning [8.666667951130892]
生成的および自己教師型学習モデルは、そのタスクでうまく機能することが示されている。
擬似相似理論の導出した定理は、結合分布モデルの推定に関係があることも示している。
論文 参考訳(メタデータ) (2020-11-12T15:03:40Z) - Discovering Reinforcement Learning Algorithms [53.72358280495428]
強化学習アルゴリズムは、いくつかのルールの1つに従ってエージェントのパラメータを更新する。
本稿では,更新ルール全体を検出するメタラーニング手法を提案する。
これには、一連の環境と対話することで、"何を予測するか"(例えば、値関数)と"どのように学習するか"の両方が含まれている。
論文 参考訳(メタデータ) (2020-07-17T07:38:39Z) - Prototypical Contrastive Learning of Unsupervised Representations [171.3046900127166]
原型コントラスト学習(Prototypeal Contrastive Learning, PCL)は、教師なし表現学習法である。
PCLは暗黙的にデータのセマンティック構造を学習された埋め込み空間にエンコードする。
PCLは、複数のベンチマークで最先端のインスタンスワイド・コントラスト学習法より優れている。
論文 参考訳(メタデータ) (2020-05-11T09:53:36Z) - StackGenVis: Alignment of Data, Algorithms, and Models for Stacking Ensemble Learning Using Performance Metrics [4.237343083490243]
機械学習(ML)では、バッグング、ブースティング、スタックングといったアンサンブル手法が広く確立されている。
StackGenVisは、スタック化された一般化のためのビジュアル分析システムである。
論文 参考訳(メタデータ) (2020-05-04T15:43:55Z) - Learning to Ask Medical Questions using Reinforcement Learning [9.376814468000955]
強化学習エージェントは、アンマストすべき特定の特徴を反復的に選択し、十分な自信のある結果を予測する。
提案手法の重要な構成要素は、選択した特徴から得られる結果を予測し、報酬関数をパラメータ化するように訓練された推測ネットワークである。
本手法を全国調査データセットに適用することにより,少数の入力特徴に基づいて予測を行う必要のある場合,高いベースラインを達成できるだけでなく,解釈性も高いことを示す。
論文 参考訳(メタデータ) (2020-03-31T18:21:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。