論文の概要: Using Shape Metrics to Describe 2D Data Points
- arxiv url: http://arxiv.org/abs/2201.11857v1
- Date: Thu, 27 Jan 2022 23:28:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-01 09:35:20.775691
- Title: Using Shape Metrics to Describe 2D Data Points
- Title(参考訳): 形状メトリクスを使って2次元データポイントを記述
- Authors: William Franz Lamberti
- Abstract要約: 本稿では,2次元データを記述するために形状計測を用いて,解析をより説明しやすく解釈可能にすることを提案する。
これは、説明可能性の権利が不可欠である医療コミュニティにおける応用において特に重要である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditional machine learning (ML) algorithms, such as multiple regression,
require human analysts to make decisions on how to treat the data. These
decisions can make the model building process subjective and difficult to
replicate for those who did not build the model. Deep learning approaches
benefit by allowing the model to learn what features are important once the
human analyst builds the architecture. Thus, a method for automating certain
human decisions for traditional ML modeling would help to improve the
reproducibility and remove subjective aspects of the model building process. To
that end, we propose to use shape metrics to describe 2D data to help make
analyses more explainable and interpretable. The proposed approach provides a
foundation to help automate various aspects of model building in an
interpretable and explainable fashion. This is particularly important in
applications in the medical community where the `right to explainability' is
crucial. We provide various simulated data sets ranging from probability
distributions, functions, and model quality control checks (such as QQ-Plots
and residual analyses from ordinary least squares) to showcase the breadth of
this approach.
- Abstract(参考訳): 複数の回帰のような従来の機械学習(ML)アルゴリズムでは、人間のアナリストがデータの扱い方を決定する必要がある。
これらの決定は、モデルの構築プロセスを主観的にし、モデルを構築していない人のために複製することを難しくする。
ディープラーニングアプローチは、人間のアナリストがアーキテクチャを構築したら、モデルが重要な機能を学ぶことができるという利点がある。
したがって、従来のMLモデリングのための特定の人間の決定を自動化する方法は、再現性を改善し、モデル構築プロセスの主観的側面を取り除くのに役立つ。
そこで本研究では,2次元データを記述するために形状メトリクスを用い,解析をより説明しやすく解釈できるようにする。
提案手法は、解釈可能で説明可能な方法でモデル構築の様々な側面を自動化するための基盤を提供する。
これは特に「説明可能性の権利」が重要である医療コミュニティのアプリケーションにおいて重要である。
本手法の広さを示すために,確率分布,関数,モデル品質管理チェック(qq-plotsや通常最小2乗の残差解析など)など,様々なシミュレーションデータセットを提供する。
関連論文リスト
- Selecting Interpretability Techniques for Healthcare Machine Learning models [69.65384453064829]
医療では、いくつかの意思決定シナリオにおいて、医療専門家を支援するために解釈可能なアルゴリズムを採用することが追求されている。
本稿では, ポストホックとモデルベースという8つのアルゴリズムを概説する。
論文 参考訳(メタデータ) (2024-06-14T17:49:04Z) - Towards Learning Stochastic Population Models by Gradient Descent [0.0]
パラメータと構造を同時に推定することで,最適化手法に大きな課題が生じることを示す。
モデルの正確な推定を実証するが、擬似的、解釈可能なモデルの推論を強制することは、難易度を劇的に高める。
論文 参考訳(メタデータ) (2024-04-10T14:38:58Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - QualEval: Qualitative Evaluation for Model Improvement [82.73561470966658]
モデル改善のための手段として,自動定性評価による定量的スカラー指標を付加するQualEvalを提案する。
QualEvalは強力なLCM推論器と新しいフレキシブルリニアプログラミングソルバを使用して、人間の読みやすい洞察を生成する。
例えば、その洞察を活用することで、Llama 2モデルの絶対性能が最大15%向上することを示す。
論文 参考訳(メタデータ) (2023-11-06T00:21:44Z) - Model-agnostic multi-objective approach for the evolutionary discovery
of mathematical models [55.41644538483948]
現代のデータ科学では、どの部分がより良い結果を得るために置き換えられるかというモデルの性質を理解することがより興味深い。
合成データ駆動型モデル学習において,多目的進化最適化を用いてアルゴリズムの所望特性を求める。
論文 参考訳(メタデータ) (2021-07-07T11:17:09Z) - Towards Model-informed Precision Dosing with Expert-in-the-loop Machine
Learning [0.0]
モデル学習ループに人的専門家を取り入れることで、モデル学習を加速し、解釈可能性を向上させるMLフレームワークを検討する。
本稿では,データアノテーションのコストが高い学習問題に対処することを目的とした,新たなヒューマン・イン・ザ・ループMLフレームワークを提案する。
精度測定への応用により,本手法はデータから解釈可能なルールを学習し,専門家の作業負荷を低減できる可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-28T03:45:09Z) - Breiman's two cultures: You don't have to choose sides [10.695407438192527]
Breiman氏の古典的な論文は、2つの文化の選択肢としてデータ分析をキャストする。
データモデラーは、データ解析によく理解された理論的特性を持つ単純な解釈可能なモデルを使用する。
アルゴリズムモデラーは予測精度を優先順位付けし、より柔軟な関数近似を用いてデータを分析する。
論文 参考訳(メタデータ) (2021-04-25T17:58:46Z) - When Can Models Learn From Explanations? A Formal Framework for
Understanding the Roles of Explanation Data [84.87772675171412]
個々のデータポイントの説明がモデリング性能を向上させる状況について検討する。
e-SNLI、TACRED、SemEvalの3つの既存のデータセットを使って説明します。
論文 参考訳(メタデータ) (2021-02-03T18:57:08Z) - Distilling Interpretable Models into Human-Readable Code [71.11328360614479]
人間可読性は機械学習モデル解釈可能性にとって重要で望ましい標準である。
従来の方法を用いて解釈可能なモデルを訓練し,それを簡潔で可読なコードに抽出する。
本稿では,幅広いユースケースで効率的に,確実に高品質な結果を生成する分別線形曲線フィッティングアルゴリズムについて述べる。
論文 参考訳(メタデータ) (2021-01-21T01:46:36Z) - PSD2 Explainable AI Model for Credit Scoring [0.0]
本研究の目的は、信用リスクモデルの予測精度を向上させるための高度な分析手法の開発と試験である。
このプロジェクトは、銀行関連のデータベースに説明可能な機械学習モデルを適用することに焦点を当てている。
論文 参考訳(メタデータ) (2020-11-20T12:12:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。