論文の概要: Multi-modal multi-objective model-based genetic programming to find
multiple diverse high-quality models
- arxiv url: http://arxiv.org/abs/2203.13347v1
- Date: Thu, 24 Mar 2022 21:35:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-20 22:46:33.799194
- Title: Multi-modal multi-objective model-based genetic programming to find
multiple diverse high-quality models
- Title(参考訳): マルチモーダル多目的モデルに基づく遺伝的プログラミングによる多様な高品質モデル探索
- Authors: E.M.C. Sijben, T. Alderliesten and P.A.N. Bosman
- Abstract要約: 遺伝的プログラミング(GP)は、しばしば説明可能な人工知能(XAI)に貢献するのに一意に適しているとされる。
本稿では,GP-GOMEAと呼ばれる現代モデルに基づくGPアルゴリズムを拡張した,新しいマルチモーダルマルチツリー多目的GPアプローチにより,これを正確に実現する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Explainable artificial intelligence (XAI) is an important and rapidly
expanding research topic. The goal of XAI is to gain trust in a machine
learning (ML) model through clear insights into how the model arrives at its
predictions. Genetic programming (GP) is often cited as being uniquely
well-suited to contribute to XAI because of its capacity to learn (small)
symbolic models that have the potential to be interpreted. Nevertheless, like
many ML algorithms, GP typically results in a single best model. However, in
practice, the best model in terms of training error may well not be the most
suitable one as judged by a domain expert for various reasons, including
overfitting, multiple different models existing that have similar accuracy, and
unwanted errors on particular data points due to typical accuracy measures like
mean squared error. Hence, to increase chances that domain experts deem a
resulting model plausible, it becomes important to be able to explicitly search
for multiple, diverse, high-quality models that trade-off different meanings of
accuracy. In this paper, we achieve exactly this with a novel multi-modal
multi-tree multi-objective GP approach that extends a modern model-based GP
algorithm known as GP-GOMEA that is already effective at searching for small
expressions.
- Abstract(参考訳): 説明可能な人工知能(XAI)は、重要かつ急速に普及する研究トピックである。
XAIの目標は、モデルが予測にどのように到着するかを明確に把握することで、マシンラーニング(ML)モデルへの信頼を得ることである。
遺伝的プログラミング(GP)はしばしば、解釈される可能性のある(小さな)記号モデルを学ぶ能力があるため、XAIに貢献するのに一意に適しているとされる。
しかし、多くのMLアルゴリズムと同様に、GPは単一の最良のモデルをもたらす。
しかし、実際には、トレーニングエラーの観点からの最良のモデルは、オーバーフィッティング、類似の精度を持つ複数の異なるモデル、平均二乗誤差のような典型的な精度測定による特定のデータポイント上の望ましくないエラーなど、様々な理由でドメインの専門家によって判断されるように、最も適していない。
したがって、ドメインの専門家が結果のモデルが妥当であると判断する可能性を高めるために、異なる精度の意味をトレードオフする複数の多様で高品質なモデルを明示的に検索できることが重要になる。
本稿では,新しいマルチモーダルマルチツリー多目的gp法を用いて,gp-gomeaとして知られるモデルベースgpアルゴリズムを拡張し,既に小型表現の探索に有効な手法を提案する。
関連論文リスト
- Domain-specific or Uncertainty-aware models: Does it really make a difference for biomedical text classification? [4.741884506444161]
ドメインの特異性と不確実性認識が組み合わさって、モデル自身の不確実性を合理的に推定する方法について論じる。
ドメインの特異性と不確実性に対する認識は、しばしばうまく組み合わせられるが、正確なタスクはより強く重み付けされている。
論文 参考訳(メタデータ) (2024-07-17T14:52:46Z) - On Least Square Estimation in Softmax Gating Mixture of Experts [78.3687645289918]
決定論的MoEモデルに基づく最小二乗推定器(LSE)の性能について検討する。
我々は,多種多様な専門家関数の収束挙動を特徴付けるために,強い識別可能性という条件を確立する。
本研究は,専門家の選択に重要な意味を持つ。
論文 参考訳(メタデータ) (2024-02-05T12:31:18Z) - Multifamily Malware Models [5.414308305392762]
我々は、トレーニングデータセットの一般性と対応する機械学習モデルの精度との関係を定量化するために、バイト$n$-gramの機能に基づいた実験を行う。
近隣のアルゴリズムは驚くほどよく一般化され、他の機械学習手法よりもはるかに優れています。
論文 参考訳(メタデータ) (2022-06-27T13:06:31Z) - DIME: Fine-grained Interpretations of Multimodal Models via Disentangled
Local Explanations [119.1953397679783]
我々は,マルチモーダルモデルの解釈における最先端化に注力する。
提案手法であるDIMEは,マルチモーダルモデルの高精度かつきめ細かな解析を可能にする。
論文 参考訳(メタデータ) (2022-03-03T20:52:47Z) - Tree-based local explanations of machine learning model predictions,
AraucanaXAI [2.9660372210786563]
パフォーマンスと知性の間のトレードオフは、特に医学のような高度な応用において、しばしば直面する。
本稿では,ジェネリックMLモデルの予測に関する説明を生成するための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-10-15T17:39:19Z) - Model-agnostic multi-objective approach for the evolutionary discovery
of mathematical models [55.41644538483948]
現代のデータ科学では、どの部分がより良い結果を得るために置き換えられるかというモデルの性質を理解することがより興味深い。
合成データ駆動型モデル学習において,多目的進化最適化を用いてアルゴリズムの所望特性を求める。
論文 参考訳(メタデータ) (2021-07-07T11:17:09Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - Plausible Counterfactuals: Auditing Deep Learning Classifiers with
Realistic Adversarial Examples [84.8370546614042]
ディープラーニングモデルのブラックボックスの性質は、彼らがデータから何を学ぶかについて、未回答の疑問を提起している。
GAN(Generative Adversarial Network)とマルチオブジェクトは、監査されたモデルに妥当な攻撃を与えるために使用される。
その実用性は人間の顔の分類タスクの中で示され、提案されたフレームワークの潜在的可能性を明らかにしている。
論文 参考訳(メタデータ) (2020-03-25T11:08:56Z) - Learning Gaussian Graphical Models via Multiplicative Weights [54.252053139374205]
乗算重み更新法に基づいて,Klivans と Meka のアルゴリズムを適用した。
アルゴリズムは、文献の他のものと質的に類似したサンプル複雑性境界を楽しみます。
ランタイムが低い$O(mp2)$で、$m$サンプルと$p$ノードの場合には、簡単にオンライン形式で実装できる。
論文 参考訳(メタデータ) (2020-02-20T10:50:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。