論文の概要: Model LineUpper: Supporting Interactive Model Comparison at Multiple
Levels for AutoML
- arxiv url: http://arxiv.org/abs/2104.04375v1
- Date: Fri, 9 Apr 2021 14:06:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-12 13:58:15.343136
- Title: Model LineUpper: Supporting Interactive Model Comparison at Multiple
Levels for AutoML
- Title(参考訳): Model LineUpper: AutoMLの複数のレベルでの対話型モデル比較をサポートする
- Authors: Shweta Narkar, Yunfeng Zhang, Q. Vera Liao, Dakuo Wang, Justin D Weisz
- Abstract要約: 現在のAutoMLシステムでは、選択はパフォーマンスメトリックによってのみサポートされる。
複数のXAI(Explainable AI)と可視化技術を組み合わせることで、AutoMLのインタラクティブなモデル比較を支援するツールを開発しています。
- 参考スコア(独自算出の注目度): 29.04776652873194
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automated Machine Learning (AutoML) is a rapidly growing set of technologies
that automate the model development pipeline by searching model space and
generating candidate models. A critical, final step of AutoML is human
selection of a final model from dozens of candidates. In current AutoML
systems, selection is supported only by performance metrics. Prior work has
shown that in practice, people evaluate ML models based on additional criteria,
such as the way a model makes predictions. Comparison may happen at multiple
levels, from types of errors, to feature importance, to how the model makes
predictions of specific instances. We developed \tool{} to support interactive
model comparison for AutoML by integrating multiple Explainable AI (XAI) and
visualization techniques. We conducted a user study in which we both evaluated
the system and used it as a technology probe to understand how users perform
model comparison in an AutoML system. We discuss design implications for
utilizing XAI techniques for model comparison and supporting the unique needs
of data scientists in comparing AutoML models.
- Abstract(参考訳): Automated Machine Learning (AutoML)は、モデル空間を探索し、候補モデルを生成することによって、モデル開発パイプラインを自動化する技術群である。
AutoMLの致命的な最終ステップは、数十の候補から最終モデルを選択することだ。
現在のAutoMLシステムでは、選択はパフォーマンスメトリクスによってのみサポートされる。
これまでの研究では、モデルが予測を行う方法など、追加の基準に基づいてMLモデルを評価することが示されていた。
比較は、エラーの種類から重要な機能、モデルが特定のインスタンスの予測を行う方法に至るまで、複数のレベルで起こりうる。
我々は,複数の説明可能なAI(XAI)と可視化技術を統合することで,AutoMLの対話型モデル比較を支援するために,‘tool{}’を開発した。
そこで我々は,システム評価を行い,AutoMLシステムにおいて,ユーザがモデル比較を行う方法を理解するための技術調査として利用した。
本稿では,モデル比較におけるXAI技術の利用と,AutoMLモデルの比較におけるデータ科学者のユニークなニーズのサポートについて論じる。
関連論文リスト
- Multi-modal Auto-regressive Modeling via Visual Words [96.25078866446053]
本稿では,視覚的特徴を大規模多モードモデルの語彙上の確率分布にマッピングする視覚的単語の概念を提案する。
さらに、LMM内の意味空間における視覚的特徴の分布と、視覚情報を表現するためにテキスト埋め込みを使用することの可能性について検討する。
論文 参考訳(メタデータ) (2024-03-12T14:58:52Z) - AutoXPCR: Automated Multi-Objective Model Selection for Time Series
Forecasting [1.0515439489916734]
本稿では,自動的かつ説明可能な多目的モデル選択のための新しい手法であるAutoXPCRを提案する。
我々の手法はメタラーニングを利用して、(P)予測誤差、(C)ミスプレキシティ、(R)ソース要求を含むPCR基準に沿ったモデルの性能を推定する。
我々の手法は、他のモデル選択手法よりも明らかに優れている。平均すると、最高の品質の90%のモデルに推奨する計算コストの20%しか必要としない。
論文 参考訳(メタデータ) (2023-12-20T14:04:57Z) - The Devil is in the Errors: Leveraging Large Language Models for
Fine-grained Machine Translation Evaluation [93.01964988474755]
AutoMQMは,大規模な言語モデルに対して,翻訳におけるエラーの識別と分類を求めるプロンプト技術である。
テキスト内学習と微調整によるラベル付きデータの影響について検討する。
次に, PaLM-2モデルを用いてAutoMQMを評価し, スコアのプロンプトよりも性能が向上することがわかった。
論文 参考訳(メタデータ) (2023-08-14T17:17:21Z) - OmniForce: On Human-Centered, Large Model Empowered and Cloud-Edge
Collaborative AutoML System [85.8338446357469]
我々は人間中心のAutoMLシステムであるOmniForceを紹介した。
我々は、OmniForceがAutoMLシステムを実践し、オープン環境シナリオにおける適応型AIを構築する方法について説明する。
論文 参考訳(メタデータ) (2023-03-01T13:35:22Z) - Multidimensional Item Response Theory in the Style of Collaborative
Filtering [0.8057006406834467]
本稿では,多次元項目応答理論(MIRT)に対する機械学習手法を提案する。
協調フィルタリングに触発されて、多くのMIRTモデルを含むモデルの一般的なクラスを定義します。
本稿では, 個人モデルとクロスバリデーションを推定し, 最適動作モデルを選択するために, ペナル化結合最大度(JML)の使用について論じる。
論文 参考訳(メタデータ) (2023-01-03T00:56:27Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [51.8162883997512]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - Automatic Componentwise Boosting: An Interpretable AutoML System [1.1709030738577393]
本稿では,高度にスケーラブルなコンポーネントワイドブースティングアルゴリズムを用いて適用可能な,解釈可能な付加モデルを構築するAutoMLシステムを提案する。
我々のシステムは、部分的な効果やペアの相互作用を可視化するなど、簡単なモデル解釈のためのツールを提供する。
解釈可能なモデル空間に制限があるにもかかわらず、我々のシステムは、ほとんどのデータセットにおける予測性能の点で競争力がある。
論文 参考訳(メタデータ) (2021-09-12T18:34:33Z) - AutoAI-TS: AutoAI for Time Series Forecasting [14.078195334596494]
ゼロ構成(ゼロコンフ)システムを提供するAutoAI for Time Series Forecasting(AutoAI-TS)を紹介します。
AutoAI-TSは、ユーザのデータ準備、モデル作成、パラメータ最適化、トレーニング、モデル選択を自動的に実行する。
そして、提案されているt-daubメカニズムを使ってパイプラインを評価しランク付けし、最適なパイプラインを選択する。
論文 参考訳(メタデータ) (2021-02-24T15:30:54Z) - Interpret-able feedback for AutoML systems [5.5524559605452595]
自動機械学習(AutoML)システムは、非ML専門家のための機械学習(ML)モデルのトレーニングを可能にすることを目的としている。
これらのシステムの欠点は、高い精度でモデルの生成に失敗した場合、モデルを改善するためのパスがないことである。
AutoML用の解釈可能なデータフィードバックソリューションを紹介します。
論文 参考訳(メタデータ) (2021-02-22T18:54:26Z) - What do we expect from Multiple-choice QA Systems? [70.86513724662302]
複数のMultiple Choice Question Answering(MCQA)データセット上で,トップパフォーマンスモデルを検討する。
このようなモデルから得られる可能性のある一連の期待値に対して、モデル入力のゼロ情報摂動を用いて評価する。
論文 参考訳(メタデータ) (2020-11-20T21:27:10Z) - AutoGluon-Tabular: Robust and Accurate AutoML for Structured Data [120.2298620652828]
オープンソースのAutoMLフレームワークであるAutoGluon-Tabularを紹介します。
KaggleとOpenML AutoML Benchmarkの50の分類および回帰タスクからなるスイートのテストによると、AutoGluonはより速く、より堅牢で、はるかに正確である。
論文 参考訳(メタデータ) (2020-03-13T23:10:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。