論文の概要: Machines Explaining Linear Programs
- arxiv url: http://arxiv.org/abs/2206.07194v1
- Date: Tue, 14 Jun 2022 22:52:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-16 14:34:51.423030
- Title: Machines Explaining Linear Programs
- Title(参考訳): 線形プログラムを説明する機械
- Authors: David Steinmann and Matej Ze\v{c}evi\'c and Devendra Singh Dhami and
Kristian Kersting
- Abstract要約: ニューラルネットワークを説明する属性法を線形プログラムに拡張する。
これらの手法はモデル入力に対する関連スコアを提供することでモデルを説明する。
また,摂動に基づく帰属法をLPに適用する手法を提案する。
- 参考スコア(独自算出の注目度): 17.103787431518683
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There has been a recent push in making machine learning models more
interpretable so that their performance can be trusted. Although successful,
these methods have mostly focused on the deep learning methods while the
fundamental optimization methods in machine learning such as linear programs
(LP) have been left out. Even if LPs can be considered as whitebox or clearbox
models, they are not easy to understand in terms of relationships between
inputs and outputs. As a linear program only provides the optimal solution to
an optimization problem, further explanations are often helpful. In this work,
we extend the attribution methods for explaining neural networks to linear
programs. These methods explain the model by providing relevance scores for the
model inputs, to show the influence of each input on the output. Alongside
using classical gradient-based attribution methods we also propose a way to
adapt perturbation-based attribution methods to LPs. Our evaluations of several
different linear and integer problems showed that attribution methods can
generate useful explanations for linear programs. However, we also demonstrate
that using a neural attribution method directly might come with some drawbacks,
as the properties of these methods on neural networks do not necessarily
transfer to linear programs. The methods can also struggle if a linear program
has more than one optimal solution, as a solver just returns one possible
solution. Our results can hopefully be used as a good starting point for
further research in this direction.
- Abstract(参考訳): 最近、機械学習モデルをより解釈しやすくすることで、そのパフォーマンスを信頼できるものにしている。
しかし,これらの手法は,線形プログラム (LP) などの機械学習の基本最適化手法が残されている一方で,主にディープラーニング手法に焦点を当てている。
LPをホワイトボックスやクリアボックスモデルとみなすことができても、入力と出力の関係について理解するのは容易ではない。
線形プログラムは最適化問題に対する最適解のみを提供するため、さらなる説明はしばしば有用である。
本研究では,線形プログラムに対してニューラルネットワークを説明する帰属法を拡張する。
これらの手法は,各入力が出力に与える影響を示すために,モデル入力の妥当性スコアを提供することにより,モデルを説明する。
古典的勾配に基づく帰属法と並行して、摂動に基づく帰属法をLPに適用する方法も提案する。
複数の線形および整数問題に対する評価の結果,帰属法は線形プログラムに対して有用な説明を生成できることがわかった。
しかし、ニューラルネットワーク上のこれらの手法の特性が必ずしも線形プログラムに転送されるとは限らないため、ニューラル属性法を直接使用することにはいくつかの欠点がある。
線形プログラムが1つ以上の最適解を持つ場合、解法は1つの可能な解を返す。
我々の結果は、この方向のさらなる研究の出発点として利用できることを願っています。
関連論文リスト
- Learning to Remove Cuts in Integer Linear Programming [57.15699051569638]
本研究では, 学習可能なパラメトリック基準の下で, 手法の前回の繰り返しで導入された前回のカットの除去について検討する。
基本的な最適化設定では、カット削除ポリシーは、ヒューマンベースおよび機械学習誘導のカット追加ポリシーよりも大幅に改善される可能性があることを実証する。
論文 参考訳(メタデータ) (2024-06-26T22:50:43Z) - Gradient-based explanations for Gaussian Process regression and
classification models [0.0]
ガウス過程(GP)は確率的機械学習の信頼性と効果的な方法として証明されている。
近年の進歩により、GPを用いた複雑なデータモデリングはますます実現可能になっている。
機械学習モデルの意思決定プロセスを人間に透過的にすることを目的とした、いわゆる説明可能なアプローチへの関心が高まっています。
論文 参考訳(メタデータ) (2022-05-25T14:11:00Z) - Towards Neural Sparse Linear Solvers [0.0]
本研究では, 疎対称線形系の近似解法を学習するために, ニューラルスパース線形解法を提案する。
我々の手法はスパース対称線形系を無向重み付きグラフとして表現することに依存する。
構造工学からの静的線形解析問題に対して,スパース線形解法を検証した。
論文 参考訳(メタデータ) (2022-03-14T09:17:02Z) - Learning to Reformulate for Linear Programming [11.628932152805724]
本稿では,リニアプログラミング(LP)の強化学習に基づく再構成手法を提案する。
本研究では,2つの公共研究用LPデータセットと,実運用シナリオから収集した大規模LPデータセットに対して提案手法を実装した。
論文 参考訳(メタデータ) (2022-01-17T04:58:46Z) - Simple Stochastic and Online Gradient DescentAlgorithms for Pairwise
Learning [65.54757265434465]
ペアワイズ学習(Pairwise learning)とは、損失関数がペアインスタンスに依存するタスクをいう。
オンライン降下(OGD)は、ペアワイズ学習でストリーミングデータを処理する一般的なアプローチである。
本稿では,ペアワイズ学習のための手法について,シンプルでオンラインな下降を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:10:48Z) - Deep learning: a statistical viewpoint [120.94133818355645]
ディープラーニングは、理論的観点からいくつかの大きな驚きを明らかにしました。
特に、簡単な勾配法は、最適でないトレーニング問題に対するほぼ完全な解決策を簡単に見つけます。
我々はこれらの現象を具体的原理で補うと推測する。
論文 参考訳(メタデータ) (2021-03-16T16:26:36Z) - Efficient Optimization Methods for Extreme Similarity Learning with
Nonlinear Embeddings [12.119973339250848]
すべての可能なペアからの非線形埋め込みモデルを用いて類似性を学習する問題を考察する。
本稿では, 一般非線形埋め込みの結果を拡張することを目的としている。
論文 参考訳(メタデータ) (2020-10-26T12:09:09Z) - Learning the Truth From Only One Side of the Story [58.65439277460011]
一般化線形モデルに焦点をあて、このサンプリングバイアスを調整しなければ、モデルは準最適に収束するか、あるいは最適解に収束しないかもしれないことを示す。
理論的保証を伴って適応的なアプローチを提案し、いくつかの既存手法を実証的に上回っていることを示す。
論文 参考訳(メタデータ) (2020-06-08T18:20:28Z) - Physarum Powered Differentiable Linear Programming Layers and
Applications [48.77235931652611]
一般線形プログラミング問題に対する効率的かつ微分可能な解法を提案する。
本稿では,ビデオセグメンテーションタスクとメタラーニングにおける問題解決手法について述べる。
論文 参考訳(メタデータ) (2020-04-30T01:50:37Z) - Learning with Differentiable Perturbed Optimizers [54.351317101356614]
本稿では,操作を微分可能で局所的に一定ではない操作に変換する手法を提案する。
提案手法は摂動に依拠し,既存の解法とともに容易に利用することができる。
本稿では,この枠組みが,構造化予測において発達した損失の族とどのように結びつくかを示し,学習課題におけるそれらの使用に関する理論的保証を与える。
論文 参考訳(メタデータ) (2020-02-20T11:11:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。