論文の概要: HypoML: Visual Analysis for Hypothesis-based Evaluation of Machine
Learning Models
- arxiv url: http://arxiv.org/abs/2002.05271v1
- Date: Wed, 12 Feb 2020 23:03:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-01 19:55:12.652409
- Title: HypoML: Visual Analysis for Hypothesis-based Evaluation of Machine
Learning Models
- Title(参考訳): hypoML: 仮説に基づく機械学習モデルの評価のためのビジュアル分析
- Authors: Qianwen Wang, William Alexander, Jack Pegg, Huamin Qu, and Min Chen
- Abstract要約: hypoMLは、機械学習(ML)モデルの仮説に基づく評価を可能にする視覚分析ツールである。
我々はHypoMLを多くの仮説概念に適用し、視覚解析の直感的で説明可能な性質を実証した。
- 参考スコア(独自算出の注目度): 30.28365801037429
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present a visual analytics tool for enabling
hypothesis-based evaluation of machine learning (ML) models. We describe a
novel ML-testing framework that combines the traditional statistical hypothesis
testing (commonly used in empirical research) with logical reasoning about the
conclusions of multiple hypotheses. The framework defines a controlled
configuration for testing a number of hypotheses as to whether and how some
extra information about a "concept" or "feature" may benefit or hinder a ML
model. Because reasoning multiple hypotheses is not always straightforward, we
provide HypoML as a visual analysis tool, with which, the multi-thread testing
data is transformed to a visual representation for rapid observation of the
conclusions and the logical flow between the testing data and hypotheses.We
have applied HypoML to a number of hypothesized concepts, demonstrating the
intuitive and explainable nature of the visual analysis.
- Abstract(参考訳): 本稿では,機械学習モデル(ML)の仮説に基づく評価を可能にする視覚解析ツールを提案する。
本稿では,従来の統計的仮説テスト(実証実験でよく用いられる)と,複数の仮説の結論に関する論理的推論を組み合わせたML-testingフレームワークについて述べる。
このフレームワークは、"概念"や"機能"に関する余分な情報がMLモデルにどのような恩恵をもたらすか、あるいは妨げられるかについて、多くの仮説をテストするための制御された構成を定義している。
複数の仮説を推論することは必ずしも簡単ではないため、マルチスレッドテストデータを視覚的表現に変換して、結論とテストデータと仮説の間の論理フローを迅速に観察するビジュアル分析ツールとして、hypomlを提供する。
関連論文リスト
- Context-Aware Testing: A New Paradigm for Model Testing with Large Language Models [49.06068319380296]
我々は,コンテキストを帰納バイアスとして用いて意味のあるモデル障害を探索するコンテキスト認識テスト(CAT)を導入する。
最初のCATシステムSMART Testingをインスタンス化し、大きな言語モデルを用いて、関連性があり、起こりうる失敗を仮説化します。
論文 参考訳(メタデータ) (2024-10-31T15:06:16Z) - Graph Stochastic Neural Process for Inductive Few-shot Knowledge Graph Completion [63.68647582680998]
I-FKGC(inductive few-shot knowledge graph completion)と呼ばれる課題に焦点をあてる。
帰納的推論(inductive reasoning)の概念に着想を得て,I-FKGCを帰納的推論問題とした。
本稿では,仮説の連成分布をモデル化したニューラルプロセスに基づく仮説抽出器を提案する。
第2のモジュールでは、この仮説に基づいて、クエリセットのトリプルが抽出された仮説と一致するかどうかをテストするグラフアテンションベースの予測器を提案する。
論文 参考訳(メタデータ) (2024-08-03T13:37:40Z) - Hypothesis Testing for Class-Conditional Noise Using Local Maximum
Likelihood [1.8798171797988192]
教師付き学習では、学習が行われる前にラベルの質を自動的に評価することがオープンな研究課題である。
本稿では,本モデルが局所極大近似推定の積である場合,同様の手順を踏襲できることを示す。
この異なるビューは、よりリッチなモデルクラスへのアクセスを提供することで、テストのより広範な適用を可能にする。
論文 参考訳(メタデータ) (2023-12-15T22:14:58Z) - Scientific Inference With Interpretable Machine Learning: Analyzing Models to Learn About Real-World Phenomena [4.312340306206884]
解釈可能な機械学習は、モデルを論理的に分析して解釈を導出することで解を提供する。
現在のIML研究は、科学的推論にMLモデルを活用するのではなく、MLモデルの監査に重点を置いている。
本稿では、モデルだけでなく、その表現する現象を照らし出すIMLメソッドを定式化した「プロパティ記述子」を設計するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-11T10:13:21Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - A hypothesis-driven method based on machine learning for neuroimaging
data analysis [0.0]
脳画像の空間パターンを識別するための機械学習アプローチは、特徴抽出と線形分類タスクに限定されている。
従来の一般線形モデル(GLM)の推定は,一変量分類タスクに関係していることを示す。
我々は, 線形支持ベクトル回帰(SVR-iGLM)から得られるパラメータに基づいて, GLMを用いた改良された統計的検定を導出する。
マルチサイトイニシアチブの実際のデータを用いて、提案されたMLEベースの推論は、統計的パワーと偽陽性の制御を示し、正規Gよりも優れている。
論文 参考訳(メタデータ) (2022-02-09T11:13:02Z) - Learning Topic Models: Identifiability and Finite-Sample Analysis [6.181048261489101]
本稿では,特定の統合可能性に基づく潜在トピックの最大確率推定器(MLE)を提案する。
シミュレーションと実データの両方について実証的研究を行った。
論文 参考訳(メタデータ) (2021-10-08T16:35:42Z) - Hessian-based toolbox for reliable and interpretable machine learning in
physics [58.720142291102135]
本稿では,モデルアーキテクチャの解釈可能性と信頼性,外挿を行うためのツールボックスを提案する。
与えられたテストポイントでの予測に対する入力データの影響、モデル予測の不確実性の推定、およびモデル予測の不可知スコアを提供する。
我々の研究は、物理学やより一般的には科学に適用されたMLにおける解釈可能性と信頼性の方法の体系的利用への道を開く。
論文 参考訳(メタデータ) (2021-08-04T16:32:59Z) - Empowering Language Understanding with Counterfactual Reasoning [141.48592718583245]
本稿では,反現実的思考を模倣した反現実的推論モデルを提案する。
特に,各実例に対して代表的対実サンプルを生成する生成モジュールを考案し,その対実サンプルと実例サンプルを比較してモデル予測を振り返るレトロスペクティブモジュールを考案した。
論文 参考訳(メタデータ) (2021-06-06T06:36:52Z) - Marginal likelihood computation for model selection and hypothesis
testing: an extensive review [66.37504201165159]
この記事では、このトピックの最先端に関する総合的な研究について紹介する。
さまざまなテクニックの制限、メリット、コネクション、差異を強調します。
また、不適切な事前利用の問題や解決法についても述べる。
論文 参考訳(メタデータ) (2020-05-17T18:31:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。