論文の概要: Explanations for Monotonic Classifiers
- arxiv url: http://arxiv.org/abs/2106.00154v1
- Date: Tue, 1 Jun 2021 00:14:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-03 03:26:05.946034
- Title: Explanations for Monotonic Classifiers
- Title(参考訳): 単調分類器の説明
- Authors: Joao Marques-Silva, Thomas Gerspacher, Martin Cooper, Alexey Ignatiev,
Nina Narodytska
- Abstract要約: 多くの分類タスクでは、単調性の要求がある。
単調な分類法を学ぶための包括的な努力にもかかわらず、単調な説明のための専用のアプローチは乏しい。
本稿では,ブラックボックス単調分類器の一形式的説明の計算アルゴリズムについて述べる。
本稿では,形式的説明を列挙する実用的なモデル非依存アルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 26.044285532808075
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In many classification tasks there is a requirement of monotonicity.
Concretely, if all else remains constant, increasing (resp. decreasing) the
value of one or more features must not decrease (resp. increase) the value of
the prediction. Despite comprehensive efforts on learning monotonic
classifiers, dedicated approaches for explaining monotonic classifiers are
scarce and classifier-specific. This paper describes novel algorithms for the
computation of one formal explanation of a (black-box) monotonic classifier.
These novel algorithms are polynomial in the run time complexity of the
classifier and the number of features. Furthermore, the paper presents a
practically efficient model-agnostic algorithm for enumerating formal
explanations.
- Abstract(参考訳): 多くの分類課題では単調性が要求される。
具体的には、もし他のすべてが一定であるならば、増加(resp)する。
減少) 1つ以上の特徴の値が減少してはいけない(resp)。
増加) 予測の値。
単調分類子を学ぶための包括的な取り組みにもかかわらず、単調分類子を説明するための専門的なアプローチは乏しく、分類子特有のものである。
本稿では,ブラックボックス型単調分類器の一形式的説明の計算アルゴリズムについて述べる。
これらの新しいアルゴリズムは、分類器のランタイム複雑性と特徴数における多項式である。
さらに,形式的説明を列挙する実用的なモデル非依存アルゴリズムを提案する。
関連論文リスト
- One-for-many Counterfactual Explanations by Column Generation [10.722820966396192]
我々は,一群のインスタンスに対して,一組の対実的説明を生成するという問題を考察する。
はじめに、すべてのインスタンスを説明するのに必要な説明の数を最小化する問題を解く。
説明を効率的に検索する新しい列生成フレームワークを開発した。
論文 参考訳(メタデータ) (2024-02-12T10:03:31Z) - Understanding and Mitigating Classification Errors Through Interpretable
Token Patterns [58.91023283103762]
容易に解釈可能な用語でエラーを特徴付けることは、分類器が体系的なエラーを起こす傾向にあるかどうかを洞察する。
正しい予測と誤予測を区別するトークンのパターンを発見することを提案する。
提案手法であるPremiseが実際によく動作することを示す。
論文 参考訳(メタデータ) (2023-11-18T00:24:26Z) - A Multi-Class SWAP-Test Classifier [0.0]
この研究は、そのバイナリ前駆体と最近の研究におけるラベル状態の使用に触発された最初のマルチクラスSWAP-Test分類器を示す。
従来の研究とは対照的に、必要な量子ビット数、測定戦略、使用する回路の位相はクラス数に不変である。
解析結果と数値シミュレーションの両方で、この分類器は多様な分類問題に適用されるだけでなく、特定の雑音に対して堅牢であることが示された。
論文 参考訳(メタデータ) (2023-02-06T18:31:43Z) - An Upper Bound for the Distribution Overlap Index and Its Applications [18.481370450591317]
本稿では,2つの確率分布間の重なり関数に対する計算容易な上限を提案する。
提案した境界は、一級分類と領域シフト解析においてその値を示す。
私たちの研究は、重複ベースのメトリクスの応用を拡大する大きな可能性を示しています。
論文 参考訳(メタデータ) (2022-12-16T20:02:03Z) - Class-Specific Explainability for Deep Time Series Classifiers [6.566615606042994]
ディープ時系列分類器におけるクラス固有の説明可能性の開放的問題について検討する。
我々は,深層多クラス時系列分類器を説明するために,サリエンシマップを学習する新しい説明可能性手法DEMUXを設計する。
我々の実験的研究は、DEMUXが5つの一般的なデータセットで9つの最先端の代替品より優れていることを示した。
論文 参考訳(メタデータ) (2022-10-11T12:37:15Z) - Soft-margin classification of object manifolds [0.0]
単一対象の複数の出現に対応する神経集団は、神経応答空間における多様体を定義する。
そのような多様体を分類する能力は、オブジェクト認識やその他の計算タスクは多様体内の変数に無関心な応答を必要とするため、興味がある。
ソフトマージン分類器は、より大きなアルゴリズムのクラスであり、トレーニングセット外のパフォーマンスを最適化するためにアプリケーションで使われる追加の正規化パラメータを提供する。
論文 参考訳(メタデータ) (2022-03-14T12:23:36Z) - Learning Debiased and Disentangled Representations for Semantic
Segmentation [52.35766945827972]
セマンティックセグメンテーションのためのモデルに依存しない訓練手法を提案する。
各トレーニングイテレーションで特定のクラス情報をランダムに除去することにより、クラス間の機能依存を効果的に削減する。
提案手法で訓練したモデルは,複数のセマンティックセグメンテーションベンチマークにおいて強い結果を示す。
論文 参考訳(メタデータ) (2021-10-31T16:15:09Z) - Information-Theoretic Generalization Bounds for Iterative
Semi-Supervised Learning [81.1071978288003]
特に,情報理論の原理を用いて,反復型SSLアルゴリズムのエミュレータ一般化誤差の振る舞いを理解することを目的とする。
我々の理論的結果は、クラス条件分散があまり大きくない場合、一般化誤差の上限は反復数とともに単調に減少するが、すぐに飽和することを示している。
論文 参考訳(メタデータ) (2021-10-03T05:38:49Z) - Theoretical Insights Into Multiclass Classification: A High-dimensional
Asymptotic View [82.80085730891126]
線形多クラス分類の最初の現代的精度解析を行う。
分析の結果,分類精度は分布に依存していることがわかった。
得られた洞察は、他の分類アルゴリズムの正確な理解の道を開くかもしれない。
論文 参考訳(メタデータ) (2020-11-16T05:17:29Z) - M2m: Imbalanced Classification via Major-to-minor Translation [79.09018382489506]
ほとんどの実世界のシナリオでは、ラベル付きトレーニングデータセットは非常にクラス不均衡であり、ディープニューラルネットワークは、バランスの取れたテスト基準への一般化に苦しむ。
本稿では,より頻度の低いクラスを,より頻度の低いクラスからのサンプルを翻訳することによって,この問題を緩和する新しい方法を提案する。
提案手法は,従来の再サンプリング法や再重み付け法と比較して,マイノリティクラスの一般化を著しく改善することを示す。
論文 参考訳(メタデータ) (2020-04-01T13:21:17Z) - Exact Hard Monotonic Attention for Character-Level Transduction [76.66797368985453]
非単調なソフトアテンションを用いたニューラルシークエンス・ツー・シーケンスモデルは、しばしば一般的な単調モデルよりも優れていることを示す。
我々は、厳密な単調性を強制し、トランスデューサの学習中に協調して潜時アライメントを学習するハードアテンションシーケンス・ツー・シーケンス・モデルを開発した。
論文 参考訳(メタデータ) (2019-05-15T17:51:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。