論文の概要: Deep and interpretable regression models for ordinal outcomes
- arxiv url: http://arxiv.org/abs/2010.08376v4
- Date: Tue, 20 Apr 2021 15:09:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-06 20:21:13.877345
- Title: Deep and interpretable regression models for ordinal outcomes
- Title(参考訳): 順序結果に対する深い解釈可能な回帰モデル
- Authors: Lucas Kook, Lisa Herzog, Torsten Hothorn, Oliver D\"urr, Beate Sick
- Abstract要約: 自然順の出力は予測タスクでよく起こり、しばしば利用可能な入力データは複雑なデータの混合である。
我々は,古典的順序回帰アプローチと深層学習(DL)を結合した順序性ニューラルネットワーク変換モデル(ONTRAM)を提案する。
最もフレキシブルなONTRAMの性能は、標準の多クラスDLモデルと同等であり、クロスエントロピーで訓練され、通常の結果に直面するとより高速である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Outcomes with a natural order commonly occur in prediction tasks and often
the available input data are a mixture of complex data like images and tabular
predictors. Deep Learning (DL) models are state-of-the-art for image
classification tasks but frequently treat ordinal outcomes as unordered and
lack interpretability. In contrast, classical ordinal regression models
consider the outcome's order and yield interpretable predictor effects but are
limited to tabular data. We present ordinal neural network transformation
models (ONTRAMs), which unite DL with classical ordinal regression approaches.
ONTRAMs are a special case of transformation models and trade off flexibility
and interpretability by additively decomposing the transformation function into
terms for image and tabular data using jointly trained neural networks. The
performance of the most flexible ONTRAM is by definition equivalent to a
standard multi-class DL model trained with cross-entropy while being faster in
training when facing ordinal outcomes. Lastly, we discuss how to interpret
model components for both tabular and image data on two publicly available
datasets.
- Abstract(参考訳): 自然順の出力は予測タスクでよく起こり、しばしば利用可能な入力データは画像や表の予測器のような複雑なデータの混合である。
ディープラーニング(DL)モデルは、画像分類タスクの最先端技術であるが、順序のない結果や解釈可能性の欠如としてしばしば扱われる。
対照的に、古典的な順序回帰モデルは結果の順序を考慮し、解釈可能な予測子効果をもたらすが、表のデータに限られる。
本稿では,従来の順序回帰法とdlを結合したordinal neural network transformation model (ontrams)を提案する。
ONTRAMは、変換関数を画像と表データに付加的に分解することで、変換モデルと柔軟性と解釈性をトレードオフする特別なケースである。
最もフレキシブルなONTRAMの性能は、標準の多クラスDLモデルと同等であり、クロスエントロピーで訓練され、通常の結果に直面するとより高速である。
最後に、利用可能な2つのデータセット上で、表データと画像データの両方のモデルコンポーネントを解釈する方法について議論する。
関連論文リスト
- Mutual Exclusivity Training and Primitive Augmentation to Induce
Compositionality [84.94877848357896]
最近のデータセットは、標準的なシーケンス・ツー・シーケンスモデルにおける体系的な一般化能力の欠如を露呈している。
本稿では,セq2seqモデルの振る舞いを分析し,相互排他バイアスの欠如と全例を記憶する傾向の2つの要因を同定する。
広範に使用されている2つの構成性データセット上で、標準的なシーケンス・ツー・シーケンスモデルを用いて、経験的改善を示す。
論文 参考訳(メタデータ) (2022-11-28T17:36:41Z) - Learning the Evolutionary and Multi-scale Graph Structure for
Multivariate Time Series Forecasting [50.901984244738806]
時系列の進化的・マルチスケール相互作用をモデル化する方法を示す。
特に、まず、拡張畳み込みと協調して、スケール固有の相関を捉える階層グラフ構造を提供する。
最終的な予測を得るために上記のコンポーネントを統合するために、統合ニューラルネットワークが提供される。
論文 参考訳(メタデータ) (2022-06-28T08:11:12Z) - On the Generalization and Adaption Performance of Causal Models [99.64022680811281]
異なる因果発見は、データ生成プロセスを一連のモジュールに分解するために提案されている。
このようなモジュラニューラル因果モデルの一般化と適応性能について検討する。
我々の分析では、モジュラーニューラル因果モデルが、低データレギュレーションにおけるゼロおよび少数ショットの適応において、他のモデルよりも優れていることを示している。
論文 参考訳(メタデータ) (2022-06-09T17:12:32Z) - Performance and Interpretability Comparisons of Supervised Machine
Learning Algorithms: An Empirical Study [3.7881729884531805]
論文は発見に基づく方法で整理され、各セクションが一般的な結論を提供する。
全体として、XGBとFFNNは競争力があり、FFNNはスムーズなモデルでより良いパフォーマンスを示した。
RFは一般には良好に機能せず,文献で確認された。
論文 参考訳(メタデータ) (2022-04-27T12:04:33Z) - Ordinal-ResLogit: Interpretable Deep Residual Neural Networks for
Ordered Choices [6.982614422666432]
我々は、完全に解釈可能なディープラーニングに基づく順序回帰モデルを開発する。
市場シェア、代替パターン、弾力性の定式化が導出される。
以上の結果から,Ordinal-ResLogitは従来の順序回帰モデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-04-20T02:14:28Z) - Continuously Generalized Ordinal Regression for Linear and Deep Models [41.03778663275373]
正規回帰は、クラスが順序を持ち、予測エラーが予測されたクラスが真のクラスからさらに大きくなるような分類タスクである。
本稿では,クラス固有の超平面斜面をモデル化するための新しい手法を提案する。
本手法は,順序回帰ベンチマークデータセットの完全セットに対して,標準順序ロジスティックモデルよりも大幅に優れる。
論文 参考訳(メタデータ) (2022-02-14T19:49:05Z) - Discovering Invariant Rationales for Graph Neural Networks [104.61908788639052]
グラフニューラルネットワーク(GNN)の固有の解釈可能性とは、入力グラフの特徴の小さなサブセットを見つけることである。
本稿では,本質的に解釈可能なGNNを構築するために,不変理性(DIR)を発見するための新しい戦略を提案する。
論文 参考訳(メタデータ) (2022-01-30T16:43:40Z) - X-model: Improving Data Efficiency in Deep Learning with A Minimax Model [78.55482897452417]
ディープラーニングにおける分類と回帰設定の両面でのデータ効率の向上を目標とする。
両世界の力を生かすために,我々は新しいX-モデルを提案する。
X-モデルは、特徴抽出器とタスク固有のヘッドの間でミニマックスゲームを行う。
論文 参考訳(メタデータ) (2021-10-09T13:56:48Z) - Structured Reordering for Modeling Latent Alignments in Sequence
Transduction [86.94309120789396]
本稿では,分離可能な置換の辺りを正確に推定する効率的な動的プログラミングアルゴリズムを提案する。
結果のSeq2seqモデルは、合成問題やNLPタスクの標準モデルよりも体系的な一般化が優れている。
論文 参考訳(メタデータ) (2021-06-06T21:53:54Z) - Learning a binary search with a recurrent neural network. A novel
approach to ordinal regression analysis [0.0]
本稿では,順序回帰における深層学習フレームワークが提供するシーケンス・ツー・シーケンス学習手法の応用について検討する。
対象変数の順序に応じてモデルの説明変数を可視化する手法を提案する。
この手法は、多くのベンチマークデータセット上の従来の順序回帰法と比較され、同等またははるかに優れた予測能力を有することが示されている。
論文 参考訳(メタデータ) (2021-01-07T16:16:43Z) - Deep transformation models: Tackling complex regression problems with
neural network based transformation models [0.0]
確率回帰のための深層変換モデルを提案する。
これは、結果の不確実性を捉える最も徹底的な方法である条件付き確率分布全体を推定する。
本手法は複雑な入力データに対して有効であり,画像データにCNNアーキテクチャを適用して実演する。
論文 参考訳(メタデータ) (2020-04-01T14:23:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。