論文の概要: Optimizing Binary Decision Diagrams with MaxSAT for classification
- arxiv url: http://arxiv.org/abs/2203.11386v1
- Date: Mon, 21 Mar 2022 23:17:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-23 13:14:32.423870
- Title: Optimizing Binary Decision Diagrams with MaxSAT for classification
- Title(参考訳): MaxSATによる二項決定図の最適化と分類
- Authors: Hao Hu, Marie-Jos\'e Huguet, and Mohamed Siala
- Abstract要約: 説明可能な人工知能への関心の高まりは、解釈可能な機械学習(ML)モデルの必要性を動機付けている。
近年、従来の手法の弱点を克服するために、そのようなモデルを計算するためのいくつかの正確な方法が提案されている。
本稿ではまず,最適なバイナリ決定図(BDD)を学習するためのSATモデルを提案する。
次に、符号化をMaxSATモデルに上げ、限られた深さで最適なBDDを学習します。
最後に、MaxSATモデルを介して見つけたBDDの互換性のあるサブツリーをマージする手法を導入することにより、フラグメンテーションの問題に取り組む。
- 参考スコア(独自算出の注目度): 3.2894524838755608
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The growing interest in explainable artificial intelligence (XAI) for
critical decision making motivates the need for interpretable machine learning
(ML) models. In fact, due to their structure (especially with small sizes),
these models are inherently understandable by humans. Recently, several exact
methods for computing such models are proposed to overcome weaknesses of
traditional heuristic methods by providing more compact models or better
prediction quality.
Despite their compressed representation of Boolean functions, Binary decision
diagrams (BDDs) did not gain enough interest as other interpretable ML models.
In this paper, we first propose SAT-based models for learning optimal BDDs (in
terms of the number of features) that classify all input examples. Then, we
lift the encoding to a MaxSAT model to learn optimal BDDs in limited depths,
that maximize the number of examples correctly classified. Finally, we tackle
the fragmentation problem by introducing a method to merge compatible subtrees
for the BDDs found via the MaxSAT model. Our empirical study shows clear
benefits of the proposed approach in terms of prediction quality and
intrepretability (i.e., lighter size) compared to the state-of-the-art
approaches.
- Abstract(参考訳): 重要な意思決定のための説明可能な人工知能(xai)への関心が高まり、解釈可能な機械学習(ml)モデルの必要性が高まっている。
実際、その構造(特に小さいサイズ)のため、これらのモデルは本質的に人間によって理解できる。
近年、よりコンパクトなモデルやより良い予測品質を提供することで、従来のヒューリスティック手法の弱点を克服するために、そのようなモデルを計算するためのいくつかの正確な方法が提案されている。
ブール関数の圧縮表現にもかかわらず、二項決定図(BDD)は他の解釈可能なMLモデルほど関心を寄せなかった。
本稿ではまず,すべての入力サンプルを分類する(特徴数の観点から)最適なbddを学習するためのsatモデルを提案する。
次に、符号化をMaxSATモデルに引き上げ、限られた深さで最適なBDDを学習し、正しく分類されたサンプルの数を最大化する。
最後に、MaxSATモデルを介して見つけたBDDの互換性のあるサブツリーをマージする手法を導入することにより、フラグメンテーションの問題に取り組む。
本研究は,最先端の手法と比較して,予測品質と非推奨性(すなわち,より軽量なサイズ)の観点から,提案手法の利点を明確に示す。
関連論文リスト
- Inference Scaling Laws: An Empirical Analysis of Compute-Optimal Inference for Problem-Solving with Language Models [46.959380978972206]
大規模言語モデル(LLM)学習における推論スケーリング法則と計算最適推論について検討する。
計算最適推論手法の理解と設計に向けた第一歩として,推論戦略のコストパフォーマンストレードオフについて検討した。
以上の結果から,Llemma-7Bのようなより小さなモデルでは,計算予算が同じであれば,より大きなモデルよりも優れた性能が得られることが示唆された。
論文 参考訳(メタデータ) (2024-08-01T17:16:04Z) - Latent Semantic Consensus For Deterministic Geometric Model Fitting [109.44565542031384]
我々はLSC(Latent Semantic Consensus)と呼ばれる効果的な方法を提案する。
LSCは、モデルフィッティング問題をデータポイントとモデル仮説に基づく2つの潜在意味空間に定式化する。
LSCは、一般的な多構造モデルフィッティングのために、数ミリ秒以内で一貫した、信頼性の高いソリューションを提供することができる。
論文 参考訳(メタデータ) (2024-03-11T05:35:38Z) - Oracle Inequalities for Model Selection in Offline Reinforcement
Learning [105.74139523696284]
本稿では,値関数近似を用いたオフラインRLにおけるモデル選択の問題について検討する。
対数係数まで最小値の速度-最適不等式を実現するオフラインRLの最初のモデル選択アルゴリズムを提案する。
そこで本研究では,優れたモデルクラスを確実に選択できることを示す数値シミュレーションを行った。
論文 参考訳(メタデータ) (2022-11-03T17:32:34Z) - Margin Optimal Classification Trees [0.0]
最適分類木(OCT)問題に対する新しい混合整数定式化法を提案する。
我々のモデルは、Margin Optimal Classification Tree (MARGOT)と呼ばれ、バイナリ分類のためのSupport Vector Machinesの一般化機能を利用する。
提案手法の解釈可能性を高めるため,超平面の局所的疎結合を誘導する特徴選択制約を含む2種類のMARGOTを解析した。
論文 参考訳(メタデータ) (2022-10-19T14:08:56Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - A model aggregation approach for high-dimensional large-scale
optimization [2.1104930506758275]
本研究では,高次元大規模最適化問題を効率的に解くため,ベイズ最適化(MamBO)アルゴリズムにおけるモデル集約手法を提案する。
MamBOはサブサンプリングとサブスペース埋め込みを組み合わせることで、高次元と大規模問題に一括して対処する。
提案手法は,これらの低次元サロゲートモデルリスクを低減し,BOアルゴリズムのロバスト性を向上させる。
論文 参考訳(メタデータ) (2022-05-16T08:58:42Z) - Sparse MoEs meet Efficient Ensembles [49.313497379189315]
このようなモデルの2つの一般的なクラス、すなわちニューラルネットワークのアンサンブルと専門家のスパースミックス(スパースMoE)の相互作用について研究する。
Efficient Ensemble of Experts (E$3$)は、両モデルのクラスを最大限に活用するスケーラブルでシンプルなMoEのアンサンブルであり、深いアンサンブルよりも最大45%少ないFLOPを使用する。
論文 参考訳(メタデータ) (2021-10-07T11:58:35Z) - Robust Optimal Classification Trees Against Adversarial Examples [5.254093731341154]
本稿では,ユーザが特定した攻撃モデルに対して最適に堅牢な決定木を訓練する手法の集合を提案する。
逆学習において生じるmin-max最適化問題は、単一最小化定式化を用いて解くことができることを示す。
また,両部マッチングを用いた任意のモデルに対して,上界の対角精度を決定する手法を提案する。
論文 参考訳(メタデータ) (2021-09-08T18:10:49Z) - Explaining and Improving Model Behavior with k Nearest Neighbor
Representations [107.24850861390196]
モデルの予測に責任のあるトレーニング例を特定するために, k 近傍表現を提案する。
我々は,kNN表現が学習した素因関係を明らかにするのに有効であることを示す。
以上の結果から,kNN手法により,直交モデルが逆入力に対してより堅牢であることが示唆された。
論文 参考訳(メタデータ) (2020-10-18T16:55:25Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z) - Learning Interpretable Models Using Uncertainty Oracles [12.879371384378164]
解釈可能なモデルの望ましい性質は、人間によって容易に理解できるように、小さなサイズである。
a) 小さいサイズが正確さを暗示し、(b) サイズを制限するモデルファミリが提供するビースルークレバーは、望ましいサイズ精度のトレードオフに達するには不十分である。
論文 参考訳(メタデータ) (2019-06-17T05:53:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。