論文の概要: Variability-Aware Machine Learning Model Selection: Feature Modeling, Instantiation, and Experimental Case Study
- arxiv url: http://arxiv.org/abs/2501.00532v1
- Date: Tue, 31 Dec 2024 16:29:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-05 17:16:04.930277
- Title: Variability-Aware Machine Learning Model Selection: Feature Modeling, Instantiation, and Experimental Case Study
- Title(参考訳): 可変性を考慮した機械学習モデル選択:特徴モデリング,検証,実験ケーススタディ
- Authors: Cristina Tavares, Nathalia Nascimento, Paulo Alencar, Donald Cowan,
- Abstract要約: 本稿では,モデル選択プロセスの共通点とバリエーションを考慮した可変性を考慮したMLアルゴリズム選択手法を提案する。
提案されたアプローチは、モデル選択のためのより明示的で適応的で透明で、解釈可能で、自動化されたベースを提供するためのステップであると見なすことができる。
- 参考スコア(独自算出の注目度): 0.6999740786886538
- License:
- Abstract: The emergence of machine learning (ML) has led to a transformative shift in software techniques and guidelines for building software applications that support data analysis process activities such as data ingestion, modeling, and deployment. Specifically, this shift is impacting ML model selection, which is one of the key phases in this process. There have been several advances in model selection from the standpoint of core ML methods, including basic probability measures and resampling methods. However, from a software engineering perspective, this selection is still an ad hoc and informal process, is not supported by a design approach and representation formalism that explicitly captures the selection process and can not support the specification of existing model selection procedures. The selection adapts to a variety of contextual factors that affect the model selection, such as data characteristics, number of features, prediction type, and their intricate dependencies. Further, it does not provide an explanation for selecting a model and does not consider the contextual factors and their interdependencies when selecting a technique. Although the current literature provides a wide variety of ML techniques and algorithms, there is a lack of design approaches to support algorithm selection. In this paper, we present a variability-aware ML algorithm selection approach that considers the commonalities and variations in the model selection process. The approach's applicability is illustrated by an experimental case study based on the Scikit-Learn heuristics, in which existing model selections presented in the literature are compared with selections suggested by the approach. The proposed approach can be seen as a step towards providing a more explicit, adaptive, transparent, interpretable, and automated basis for model selection.
- Abstract(参考訳): 機械学習(ML)の出現は、データ取り込み、モデリング、デプロイメントなどのデータ分析プロセスアクティビティをサポートするソフトウェアアプリケーションを構築するためのソフトウェア技術とガイドラインの変革をもたらした。
特に、このシフトは、このプロセスの重要なフェーズの1つであるMLモデルの選択に影響を与える。
基本的確率測度や再サンプリング手法など,コアML手法の観点からのモデル選択にはいくつかの進歩があった。
しかし、ソフトウェア工学の観点からは、この選択はいまだアドホックで非公式なプロセスであり、設計アプローチや表現形式によってサポートされていない。
選択は,データ特性や特徴数,予測型,複雑な依存関係など,モデル選択に影響を与えるさまざまなコンテキスト要因に適応する。
さらに、モデルを選択するための説明を提供しておらず、テクニックを選択する際にコンテキスト要因とその相互依存性を考慮しない。
現在の文献は幅広いML技術とアルゴリズムを提供しているが、アルゴリズムの選択をサポートする設計アプローチが欠如している。
本稿では,モデル選択プロセスの共通点とバリエーションを考慮した可変性を考慮したMLアルゴリズム選択手法を提案する。
アプローチの適用性は、Scikit-Learnヒューリスティックスに基づく実験ケーススタディによって説明され、文献で提示された既存のモデル選択とアプローチによって提案された選択とを比較した。
提案されたアプローチは、モデル選択のためのより明示的で適応的で透明で、解釈可能で、自動化されたベースを提供するためのステップであると見なすことができる。
関連論文リスト
- A General Bayesian Framework for Informative Input Design in System Identification [86.05414211113627]
システム識別のための情報入力設計の問題に取り組む。
入力を選択し、真のシステムから対応する出力を観測し、モデルのパラメータを最適化し、データに最も合うようにします。
本手法は, 線形および非線形の様々なダイナミクスを用いて, モデルフリーベースラインより優れる。
論文 参考訳(メタデータ) (2025-01-28T01:57:51Z) - Revisiting Demonstration Selection Strategies in In-Context Learning [66.11652803887284]
大規模言語モデル(LLM)は、インコンテキスト学習(ICL)を用いて広範囲のタスクを実行するという印象的な能力を示している。
本研究ではまず,データとモデルの両方の側面から,この分散に寄与する要因を再検討し,実演の選択がデータとモデルに依存していることを確かめる。
本研究では,データとモデルに依存した実演選択手法である textbfTopK + ConE を提案する。
論文 参考訳(メタデータ) (2024-01-22T16:25:27Z) - Extending Variability-Aware Model Selection with Bias Detection in
Machine Learning Projects [0.7646713951724013]
本稿では,機械学習プロジェクトにおけるバイアス検出による適応変数認識モデル選択手法の拡張について述べる。
提案手法は, モデル選択, 特にバイアスに関連する要因, およびそれらの相互作用に影響を及ぼす因子を明示することによって, 技術の現状を推し進めることを目的としている。
論文 参考訳(メタデータ) (2023-11-23T22:08:29Z) - A Statistical-Modelling Approach to Feedforward Neural Network Model Selection [0.8287206589886881]
フィードフォワードニューラルネットワーク(FNN)は非線形回帰モデルと見なすことができる。
FNNのためのベイズ情報基準(BIC)を用いて,新しいモデル選択法を提案する。
サンプル外性能よりもBICを選択することは、真のモデルを回復する確率を増大させる。
論文 参考訳(メタデータ) (2022-07-09T11:07:04Z) - An Additive Instance-Wise Approach to Multi-class Model Interpretation [53.87578024052922]
解釈可能な機械学習は、ブラックボックスシステムの特定の予測を駆動する要因に関する洞察を提供する。
既存の手法は主に、局所的な加法的あるいはインスタンス的なアプローチに従う説明的入力特徴の選択に重点を置いている。
本研究は,両手法の長所を生かし,複数の対象クラスに対する局所的な説明を同時に学習するためのグローバルフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-07T06:50:27Z) - Switchable Representation Learning Framework with Self-compatibility [50.48336074436792]
自己整合性(SFSC)を考慮した交換可能な表現学習フレームワークを提案する。
SFSCは1つのトレーニングプロセスを通じて、異なる能力を持つ一連の互換性のあるサブモデルを生成する。
SFSCは評価データセット上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-06-16T16:46:32Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Model-agnostic and Scalable Counterfactual Explanations via
Reinforcement Learning [0.5729426778193398]
本稿では,最適化手順をエンドツーエンドの学習プロセスに変換する深層強化学習手法を提案する。
実世界のデータを用いた実験により,本手法はモデルに依存しず,モデル予測からのフィードバックのみに依存することがわかった。
論文 参考訳(メタデータ) (2021-06-04T16:54:36Z) - Interpretable Multi-dataset Evaluation for Named Entity Recognition [110.64368106131062]
本稿では,名前付きエンティティ認識(NER)タスクに対する一般的な評価手法を提案する。
提案手法は,モデルとデータセットの違いと,それらの間の相互作用を解釈することを可能にする。
分析ツールを利用可能にすることで、将来の研究者が同様の分析を実行し、この分野の進歩を促進することができる。
論文 参考訳(メタデータ) (2020-11-13T10:53:27Z) - Feature Selection Methods for Uplift Modeling and Heterogeneous
Treatment Effect [1.349645012479288]
アップリフトモデリングは、サブグループレベルの治療効果を推定する因果学習手法である。
従来の機能選択の方法は、そのタスクには適していない。
本稿では,アップリフトモデリングのための特徴選択手法を提案する。
論文 参考訳(メタデータ) (2020-05-05T00:28:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。