論文の概要: Integrating White and Black Box Techniques for Interpretable Machine Learning
- arxiv url: http://arxiv.org/abs/2407.08973v1
- Date: Fri, 12 Jul 2024 03:58:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-16 00:46:38.936159
- Title: Integrating White and Black Box Techniques for Interpretable Machine Learning
- Title(参考訳): 解釈可能な機械学習のための白黒ボックス技術の統合
- Authors: Eric M. Vernon, Naoki Masuyama, Yusuke Nojima,
- Abstract要約: 機械学習アルゴリズム設計では、アルゴリズムの解釈可能性と性能の間にトレードオフが存在する。
本稿では,高解釈可能な分類器を用いて,より簡単な入力を分類するアンサンブル分類器の設計を提案する。
- 参考スコア(独自算出の注目度): 4.526581562493767
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In machine learning algorithm design, there exists a trade-off between the interpretability and performance of the algorithm. In general, algorithms which are simpler and easier for humans to comprehend tend to show worse performance than more complex, less transparent algorithms. For example, a random forest classifier is likely to be more accurate than a simple decision tree, but at the expense of interpretability. In this paper, we present an ensemble classifier design which classifies easier inputs using a highly-interpretable classifier (i.e., white box model), and more difficult inputs using a more powerful, but less interpretable classifier (i.e., black box model).
- Abstract(参考訳): 機械学習アルゴリズム設計では、アルゴリズムの解釈可能性と性能の間にトレードオフが存在する。
一般に、人間が理解するのが簡単で容易なアルゴリズムは、より複雑で透明性の低いアルゴリズムよりも悪い性能を示す傾向がある。
例えば、ランダムな森林分類器は単純な決定木よりも正確である可能性が高いが、解釈可能性の犠牲になる。
本稿では,高い解釈可能な分類器(ホワイトボックスモデル)を用いてより簡単な入力を分類するアンサンブル分類器の設計と,より強力だが解釈可能な分類器(ブラックボックスモデル)を用いてより難しい入力を行う。
関連論文リスト
- The Lattice Overparametrization Paradigm for the Machine Learning of
Lattice Operators [0.0]
本稿では,格子内の要素を介してクラスを過度にパラメータ化することにより,格子内の関数を最小化するアルゴリズムを適用する学習パラダイムについて論じる。
この学習パラダイムには、制御、透明性、解釈可能性という、ニューラルネットワークに基づく現代的な手法に欠けている3つの特性がある。
論文 参考訳(メタデータ) (2023-10-10T14:00:03Z) - SynJax: Structured Probability Distributions for JAX [3.4447129363520337]
SynJaxは、構造化分布に対する推論アルゴリズムの効率的なベクトル化実装を提供する。
データの構造を明示的にモデル化する大規模な微分可能なモデルを構築することができます。
論文 参考訳(メタデータ) (2023-08-07T04:20:38Z) - Provably Efficient Representation Learning with Tractable Planning in
Low-Rank POMDP [81.00800920928621]
部分的に観測可能なマルコフ決定過程(POMDP)における表現学習の研究
まず,不確実性(OFU)に直面した最大推定(MLE)と楽観性を組み合わせた復調性POMDPのアルゴリズムを提案する。
次に、このアルゴリズムをより広範な$gamma$-observable POMDPのクラスで機能させる方法を示す。
論文 参考訳(メタデータ) (2023-06-21T16:04:03Z) - Learning Context-aware Classifier for Semantic Segmentation [88.88198210948426]
本稿では,文脈認識型分類器の学習を通じて文脈ヒントを利用する。
本手法はモデルに依存しないため,ジェネリックセグメンテーションモデルにも容易に適用できる。
無視できる追加パラメータと+2%の推論時間だけで、小型モデルと大型モデルの両方で十分な性能向上が達成されている。
論文 参考訳(メタデータ) (2023-03-21T07:00:35Z) - Learning with Differentiable Algorithms [6.47243430672461]
この論文は、古典的なアルゴリズムとニューラルネットワークのような機械学習システムを組み合わせることを探求している。
この論文はアルゴリズムの監督という概念を定式化し、ニューラルネットワークがアルゴリズムから、あるいは、アルゴリズムと連動して学ぶことを可能にする。
さらに、この論文では、微分可能なソートネットワーク、微分可能なソートゲート、微分可能な論理ゲートネットワークなど、微分可能なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-09-01T17:30:00Z) - Optimal Weak to Strong Learning [12.999258817707412]
本稿では,弱い学習者から強力な学習者を構築するアルゴリズムを提案する。
サンプルの複雑さの低い境界は、我々の新しいアルゴリズムが最小限のトレーニングデータを使用し、したがって最適であることを示している。
論文 参考訳(メタデータ) (2022-06-03T13:37:12Z) - A Unified Framework for Implicit Sinkhorn Differentiation [58.56866763433335]
暗黙の微分によってシンクホーン層の解析勾配を求めるアルゴリズムを提案する。
特にGPUメモリなどのリソースが不足している場合には,計算効率が向上する。
論文 参考訳(メタデータ) (2022-05-13T14:45:31Z) - Sub-Setting Algorithm for Training Data Selection in Pattern Recognition [0.0]
本稿では,単純な構造を持つ複数のサブセットを識別するトレーニングデータ選択アルゴリズムを提案する。
サブセットアルゴリズムは、複数のサブセットを単純な局所パターンで識別し、インスタンスの近傍で類似したインスタンスを識別する。
我々のボトムアップサブセットアルゴリズムは、データセット全体から学んだトップダウン決定木よりも平均15%良い結果を得た。
論文 参考訳(メタデータ) (2021-10-13T06:42:41Z) - Towards Optimally Efficient Tree Search with Deep Learning [76.64632985696237]
本稿では,線形モデルから信号整数を推定する古典整数最小二乗問題について検討する。
問題はNPハードであり、信号処理、バイオインフォマティクス、通信、機械学習といった様々な応用でしばしば発生する。
本稿では, 深いニューラルネットワークを用いて, 単純化されたメモリバウンドA*アルゴリズムの最適推定を推定し, HATSアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-01-07T08:00:02Z) - Learning outside the Black-Box: The pursuit of interpretable models [78.32475359554395]
本稿では,任意の連続ブラックボックス関数の連続的大域的解釈を生成するアルゴリズムを提案する。
我々の解釈は、その芸術の以前の状態から飛躍的な進歩を表している。
論文 参考訳(メタデータ) (2020-11-17T12:39:44Z) - Strong Generalization and Efficiency in Neural Programs [69.18742158883869]
本稿では,ニューラルプログラム誘導の枠組みを強く一般化する効率的なアルゴリズムを学習する問題について検討する。
ニューラルネットワークの入力/出力インターフェースを慎重に設計し、模倣することで、任意の入力サイズに対して正しい結果を生成するモデルを学ぶことができる。
論文 参考訳(メタデータ) (2020-07-07T17:03:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。