論文の概要: Automatic Componentwise Boosting: An Interpretable AutoML System
- arxiv url: http://arxiv.org/abs/2109.05583v1
- Date: Sun, 12 Sep 2021 18:34:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-16 09:24:33.708489
- Title: Automatic Componentwise Boosting: An Interpretable AutoML System
- Title(参考訳): Auto Componentwise Boosting: 解釈可能なAutoMLシステム
- Authors: Stefan Coors and Daniel Schalk and Bernd Bischl and David R\"ugamer
- Abstract要約: 本稿では,高度にスケーラブルなコンポーネントワイドブースティングアルゴリズムを用いて適用可能な,解釈可能な付加モデルを構築するAutoMLシステムを提案する。
我々のシステムは、部分的な効果やペアの相互作用を可視化するなど、簡単なモデル解釈のためのツールを提供する。
解釈可能なモデル空間に制限があるにもかかわらず、我々のシステムは、ほとんどのデータセットにおける予測性能の点で競争力がある。
- 参考スコア(独自算出の注目度): 1.1709030738577393
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In practice, machine learning (ML) workflows require various different steps,
from data preprocessing, missing value imputation, model selection, to model
tuning as well as model evaluation. Many of these steps rely on human ML
experts. AutoML - the field of automating these ML pipelines - tries to help
practitioners to apply ML off-the-shelf without any expert knowledge. Most
modern AutoML systems like auto-sklearn, H20-AutoML or TPOT aim for high
predictive performance, thereby generating ensembles that consist almost
exclusively of black-box models. This, in turn, makes the interpretation for
the layperson more intricate and adds another layer of opacity for users. We
propose an AutoML system that constructs an interpretable additive model that
can be fitted using a highly scalable componentwise boosting algorithm. Our
system provides tools for easy model interpretation such as visualizing partial
effects and pairwise interactions, allows for a straightforward calculation of
feature importance, and gives insights into the required model complexity to
fit the given task. We introduce the general framework and outline its
implementation autocompboost. To demonstrate the frameworks efficacy, we
compare autocompboost to other existing systems based on the OpenML
AutoML-Benchmark. Despite its restriction to an interpretable model space, our
system is competitive in terms of predictive performance on most data sets
while being more user-friendly and transparent.
- Abstract(参考訳): 実際には、機械学習(ML)ワークフローは、データ前処理、値インプットの欠如、モデル選択、モデルチューニング、モデル評価など、さまざまなステップを必要とする。
これらのステップの多くは、人間のML専門家に依存しています。
これらのMLパイプラインを自動化する分野であるAutoMLは、専門家の知識なしにMLをオフザシェルフに適用する実践者を支援する。
Auto-sklearnやH20-AutoML、TPOTといった現代のAutoMLシステムは高い予測性能を目標としており、ブラックボックスモデルのみで構成されるアンサンブルを生成する。
これにより、素人の解釈がより複雑になり、ユーザーにとって不透明な別の層が加わった。
本稿では,高スケーラブルなコンポーネントワイドブースティングアルゴリズムを用いて,解釈可能な付加モデルを構築するAutoMLシステムを提案する。
本システムでは,部分的効果や相互相互作用の可視化などの容易なモデル解釈のためのツールを提供し,特徴量を直接計算し,与えられたタスクに適合するために必要なモデル複雑性に関する洞察を提供する。
一般的なフレームワークを紹介し、その実装について概説する。
フレームワークの有効性を示すため、OpenML AutoML-Benchmarkに基づく既存のシステムと比較する。
解釈可能なモデル空間に制限されているにもかかわらず、我々のシステムは、よりユーザーフレンドリーで透明でありながら、ほとんどのデータセットで予測性能の点で競争力がある。
関連論文リスト
- Multi-modal Auto-regressive Modeling via Visual Words [96.25078866446053]
本稿では,視覚的特徴を大規模多モードモデルの語彙上の確率分布にマッピングする視覚的単語の概念を提案する。
さらに、LMM内の意味空間における視覚的特徴の分布と、視覚情報を表現するためにテキスト埋め込みを使用することの可能性について検討する。
論文 参考訳(メタデータ) (2024-03-12T14:58:52Z) - Small LLMs Are Weak Tool Learners: A Multi-LLM Agent [73.54562551341454]
大規模言語モデル(LLM)エージェントはスタンドアロンのLLMの機能を大幅に拡張する。
本稿では、上記の機能をプランナー、呼び出し元、要約器に分解する新しい手法を提案する。
このモジュール化されたフレームワークは、個々の更新と、それぞれの機能を構築するための小さなLLMの潜在的な使用を容易にする。
論文 参考訳(メタデータ) (2024-01-14T16:17:07Z) - Simultaneous Machine Translation with Large Language Models [51.470478122113356]
我々は,SimulMTタスクに大規模言語モデルを適用する可能性を検討する。
MUST-Cデータセットと異なる9言語でtextttLlama2-7b-chatモデルを用いて実験を行った。
その結果,LLM は BLEU と LAAL の指標で専用MT モデルよりも優れていた。
論文 参考訳(メタデータ) (2023-09-13T04:06:47Z) - From Quantity to Quality: Boosting LLM Performance with Self-Guided Data
Selection for Instruction Tuning [54.222609226692015]
我々は大規模言語モデルのための自己誘導手法を導入し、大規模なオープンソースデータセットからサクラサンプルを自律的に識別し、選択する。
私たちの重要なイノベーションであるIFD(Instruction-Following Difficulty)メトリックは、モデルが期待する応答と自動生成技術との間の相違を識別するための重要なツールとして現れます。
論文 参考訳(メタデータ) (2023-08-23T09:45:29Z) - The Devil is in the Errors: Leveraging Large Language Models for
Fine-grained Machine Translation Evaluation [93.01964988474755]
AutoMQMは,大規模な言語モデルに対して,翻訳におけるエラーの識別と分類を求めるプロンプト技術である。
テキスト内学習と微調整によるラベル付きデータの影響について検討する。
次に, PaLM-2モデルを用いてAutoMQMを評価し, スコアのプロンプトよりも性能が向上することがわかった。
論文 参考訳(メタデータ) (2023-08-14T17:17:21Z) - Large Language Models for Automated Data Science: Introducing CAAFE for
Context-Aware Automated Feature Engineering [52.09178018466104]
データセットのセマンティックな特徴を生成するために、コンテキスト認識自動特徴工学(CAAFE)を導入する。
方法論的には単純だが、CAAFEは14のデータセットのうち11のパフォーマンスを改善している。
我々は,AutoMLシステムの範囲をセマンティックなAutoMLに拡張できるコンテキスト認識ソリューションの重要性を強調した。
論文 参考訳(メタデータ) (2023-05-05T09:58:40Z) - STREAMLINE: A Simple, Transparent, End-To-End Automated Machine Learning
Pipeline Facilitating Data Analysis and Algorithm Comparison [0.49034553215430216]
STREAMLINEはシンプルで透明でエンドツーエンドのAutoMLパイプラインである。
データセット、MLアルゴリズム、その他のAutoMLツールのパフォーマンスを比較するように設計されている。
論文 参考訳(メタデータ) (2022-06-23T22:40:58Z) - XAutoML: A Visual Analytics Tool for Understanding and Validating
Automated Machine Learning [5.633209323925663]
XAutoMLは、AutoMLによって構築された任意のAutoML最適化手順とMLパイプラインを説明するための、インタラクティブなビジュアル分析ツールである。
XAutoMLは、インタラクティブな視覚化と、説明可能な人工知能(XAI)の確立したテクニックを組み合わせることで、完全なAutoML手順を透過的かつ説明可能なものにする。
論文 参考訳(メタデータ) (2022-02-24T08:18:25Z) - Model LineUpper: Supporting Interactive Model Comparison at Multiple
Levels for AutoML [29.04776652873194]
現在のAutoMLシステムでは、選択はパフォーマンスメトリックによってのみサポートされる。
複数のXAI(Explainable AI)と可視化技術を組み合わせることで、AutoMLのインタラクティブなモデル比較を支援するツールを開発しています。
論文 参考訳(メタデータ) (2021-04-09T14:06:13Z) - Interpret-able feedback for AutoML systems [5.5524559605452595]
自動機械学習(AutoML)システムは、非ML専門家のための機械学習(ML)モデルのトレーニングを可能にすることを目的としている。
これらのシステムの欠点は、高い精度でモデルの生成に失敗した場合、モデルを改善するためのパスがないことである。
AutoML用の解釈可能なデータフィードバックソリューションを紹介します。
論文 参考訳(メタデータ) (2021-02-22T18:54:26Z) - Robusta: Robust AutoML for Feature Selection via Reinforcement Learning [24.24652530951966]
強化学習(RL)に基づく初の堅牢なAutoMLフレームワークRobostaを提案します。
このフレームワークは,良性サンプルの競争精度を維持しつつ,モデルロバスト性を最大22%向上させることができることを示す。
論文 参考訳(メタデータ) (2021-01-15T03:12:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。