論文の概要: Optimal Decision Diagrams for Classification
- arxiv url: http://arxiv.org/abs/2205.14500v1
- Date: Sat, 28 May 2022 18:31:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-31 16:52:18.771123
- Title: Optimal Decision Diagrams for Classification
- Title(参考訳): 分類のための最適決定図
- Authors: Alexandre M. Florio, Pedro Martins, Maximilian Schiffer, Thiago Serra,
Thibaut Vidal
- Abstract要約: 数学的プログラミングの観点から最適決定図の学習について検討する。
本稿では,新しい混合整数線形プログラミングモデルを提案する。
このモデルは、公正性、同義性、安定性の概念に対してどのように容易に拡張できるかを示す。
- 参考スコア(独自算出の注目度): 68.72078059880018
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decision diagrams for classification have some notable advantages over
decision trees, as their internal connections can be determined at training
time and their width is not bound to grow exponentially with their depth.
Accordingly, decision diagrams are usually less prone to data fragmentation in
internal nodes. However, the inherent complexity of training these classifiers
acted as a long-standing barrier to their widespread adoption. In this context,
we study the training of optimal decision diagrams (ODDs) from a mathematical
programming perspective. We introduce a novel mixed-integer linear programming
model for training and demonstrate its applicability for many datasets of
practical importance. Further, we show how this model can be easily extended
for fairness, parsimony, and stability notions. We present numerical analyses
showing that our model allows training ODDs in short computational times, and
that ODDs achieve better accuracy than optimal decision trees, while allowing
for improved stability without significant accuracy losses.
- Abstract(参考訳): 分類のための決定図は、内部接続がトレーニング時に決定され、その幅は、その深さとともに指数関数的に成長しないため、決定木に対していくつかの顕著な利点がある。
したがって、決定図は通常、内部ノードにおけるデータの断片化の傾向が低い。
しかし、これらの分類器を訓練する本来の複雑さは、広く普及する上で長年の障壁となった。
本研究では,数理プログラミングの観点から最適決定図(ODD)の学習について検討する。
本稿では,新しい学習用混合整数線形プログラミングモデルを導入し,その実用上重要なデータセットへの適用性を示す。
さらに,このモデルがフェアネス,パシモニー,安定性といった概念に対して容易に拡張できることを示す。
本稿では,ODDを短時間で学習することが可能であり,ODDが最適決定木よりも精度が高く,精度の低下を伴わずに安定性を向上できることを示す。
関連論文リスト
- Computation-Aware Gaussian Processes: Model Selection And Linear-Time Inference [55.150117654242706]
我々は、1.8万のデータポイントでトレーニングされた計算対応GPのモデル選択が、1つのGPU上で数時間以内に可能であることを示す。
この研究の結果、ガウス過程は、不確実性を定量化する能力を著しく妥協することなく、大規模なデータセットで訓練することができる。
論文 参考訳(メタデータ) (2024-11-01T21:11:48Z) - Interpretable Modeling of Deep Reinforcement Learning Driven Scheduling [3.890533943135602]
本稿では,DRLスケジューリングの解釈可能性の問題に対処するIRL(Interpretable Reinforcement Learning)というフレームワークを提案する。
ILRは、ブラックボックスのDNNポリシーを、同等のスケジューリング性能を維持しつつ、解釈可能なルールベースの決定ツリーに変換することができる。
論文 参考訳(メタデータ) (2024-03-24T20:56:16Z) - Robust Learning with Progressive Data Expansion Against Spurious
Correlation [65.83104529677234]
本研究では,2層非線形畳み込みニューラルネットワークの学習過程について検討した。
分析の結果,不均衡なデータ群と学習容易なスプリアス特徴が学習過程におけるスプリアス特徴の優位性に繋がる可能性が示唆された。
本稿では,PDEと呼ばれる新たなトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-08T05:44:06Z) - Optimal Interpretability-Performance Trade-off of Classification Trees
with Black-Box Reinforcement Learning [0.0]
AIモデルの解釈可能性により、モデルの信頼性を構築するためのユーザ安全チェックが可能になる。
決定木(DT)は、学習したモデルに関するグローバルな見解を提供し、与えられたデータを分類するのに重要な機能の役割を明確に概説する。
コンパクトツリーを学習するために、最近DTの空間を探求する強化学習フレームワークが提案されている。
論文 参考訳(メタデータ) (2023-04-11T09:43:23Z) - Analyzing the Performance of Deep Encoder-Decoder Networks as Surrogates
for a Diffusion Equation [0.0]
本研究では,エンコーダ・デコーダ畳み込みニューラルネットワーク(CNN)を定常拡散解法の代用として利用することを検討した。
その結果,トレーニングセットのサイズが大きくなると,性能変動や全体的な誤差の低減に大きく影響することが示唆された。
論文 参考訳(メタデータ) (2023-02-07T22:53:19Z) - Data-Driven Offline Decision-Making via Invariant Representation
Learning [97.49309949598505]
オフラインのデータ駆動意思決定は、アクティブなインタラクションなしで最適化された決定を合成する。
オフラインデータからトレーニングされたモデルへの入力に関して最適化する場合、誤って良いように見えるアウト・オブ・ディストリビューション(OOD)インプットを生成するのは簡単です。
本稿では、オフラインデータ駆動意思決定をドメイン適応として定式化し、最適化された決定値の正確な予測を行うことを目標とする。
論文 参考訳(メタデータ) (2022-11-21T11:01:37Z) - Scaling Laws Beyond Backpropagation [64.0476282000118]
因果デコーダのみの変換器を効率的に訓練するための直接フィードバックアライメントの有効性について検討した。
DFAはバックプロパゲーションよりも効率的なスケーリングを提供していないことが分かりました。
論文 参考訳(メタデータ) (2022-10-26T10:09:14Z) - Holistic Deep Learning [3.718942345103135]
本稿では、入力摂動、過度なパラメータ化、性能不安定といった脆弱性の課題に対処する、新しい総合的なディープラーニングフレームワークを提案する。
提案したフレームワークは、標準的なディープラーニングモデルよりも正確性、堅牢性、疎性、安定性を全面的に改善する。
論文 参考訳(メタデータ) (2021-10-29T14:46:32Z) - Distributionally Robust Semi-Supervised Learning Over Graphs [68.29280230284712]
グラフ構造化データに対する半教師付き学習(SSL)は、多くのネットワークサイエンスアプリケーションに現れる。
グラフ上の学習を効率的に管理するために,近年,グラフニューラルネットワーク(GNN)の変種が開発されている。
実際に成功したにも拘わらず、既存の手法のほとんどは、不確実な結節属性を持つグラフを扱うことができない。
ノイズ測定によって得られたデータに関連する分布の不確実性によっても問題が発生する。
分散ロバストな学習フレームワークを開発し,摂動に対する定量的ロバスト性を示すモデルを訓練する。
論文 参考訳(メタデータ) (2021-10-20T14:23:54Z) - SONG: Self-Organizing Neural Graphs [10.253870280561609]
決定木は二分決定に基づいており、決定を素早くし、クラス階層を提供するため、容易に解釈できる。
決定木がよく知られた欠点の1つは、決定木が決定ノードを再利用できないことである。
本稿では、マルコフ過程に基づく一般的なパラダイムを提供する。これは、自己組織化ニューラルネットワーク(SONG)と呼ばれる特殊なタイプの決定グラフの効率的なトレーニングを可能にする。
論文 参考訳(メタデータ) (2021-07-28T07:53:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。