論文の概要: Deep Grey-Box Modeling With Adaptive Data-Driven Models Toward
Trustworthy Estimation of Theory-Driven Models
- arxiv url: http://arxiv.org/abs/2210.13103v1
- Date: Mon, 24 Oct 2022 10:42:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 14:40:27.854337
- Title: Deep Grey-Box Modeling With Adaptive Data-Driven Models Toward
Trustworthy Estimation of Theory-Driven Models
- Title(参考訳): 適応型データ駆動モデルを用いたDeep Grey-Boxモデリング
- Authors: Naoya Takeishi and Alexandros Kalousis
- Abstract要約: 本稿では,ニューラルネットワークのアーキテクチャとトレーニング目標にわずかな変化を伴って,レギュレータの動作を経験的に分析することのできるフレームワークを提案する。
- 参考スコア(独自算出の注目度): 88.63781315038824
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The combination of deep neural nets and theory-driven models, which we call
deep grey-box modeling, can be inherently interpretable to some extent thanks
to the theory backbone. Deep grey-box models are usually learned with a
regularized risk minimization to prevent a theory-driven part from being
overwritten and ignored by a deep neural net. However, an estimation of the
theory-driven part obtained by uncritically optimizing a regularizer can hardly
be trustworthy when we are not sure what regularizer is suitable for the given
data, which may harm the interpretability. Toward a trustworthy estimation of
the theory-driven part, we should analyze regularizers' behavior to compare
different candidates and to justify a specific choice. In this paper, we
present a framework that enables us to analyze a regularizer's behavior
empirically with a slight change in the neural net's architecture and the
training objective.
- Abstract(参考訳): ディープ・ニューラルネットとディープ・グレイボックス・モデリングと呼ばれる理論駆動モデルの組み合わせは、理論のバックボーンのおかげで本質的にある程度解釈できる。
ディープグレーボックスモデルは通常、理論駆動の部分がディープニューラルネットワークによって上書きされ無視されるのを防ぐために、正規化されたリスク最小化で学習される。
しかし、正規化器を非批判的に最適化して得られる理論駆動部分の推定は、与えられたデータにどの正規化器が適しているかがわからない場合、信頼し難い。
理論駆動部分の信頼に値する推定に向けて, 正規化者の行動を分析し, 異なる候補を比較し, 特定の選択を正当化する。
本稿では,ニューラルネットのアーキテクチャとトレーニング目標にわずかな変化を伴って,レギュレータの動作を経験的に分析することのできるフレームワークを提案する。
関連論文リスト
- Variational Bayesian Bow tie Neural Networks with Shrinkage [0.276240219662896]
我々は、標準フィードフォワード修正ニューラルネットワークの緩和版を構築した。
我々は、条件付き線形およびガウス的モデルをレンダリングするために、Polya-Gammaデータ拡張トリックを用いる。
層間における分布仮定や独立性を回避する変分推論アルゴリズムを導出する。
論文 参考訳(メタデータ) (2024-11-17T17:36:30Z) - Selective Learning: Towards Robust Calibration with Dynamic Regularization [79.92633587914659]
ディープラーニングにおけるミススキャリブレーションとは、予測された信頼とパフォーマンスの間には相違がある、という意味である。
トレーニング中に何を学ぶべきかを学ぶことを目的とした動的正規化(DReg)を導入し、信頼度調整のトレードオフを回避する。
論文 参考訳(メタデータ) (2024-02-13T11:25:20Z) - Chaos Theory and Adversarial Robustness [0.0]
本稿では、カオス理論の考え方を用いて、ニューラルネットワークが敵対的攻撃に対してどのような影響を受けやすいか、あるいは堅牢であるかを説明し、分析し、定量化する。
我々は、与えられた入力に対する摂動によってモデルの出力がどれほど大きく変化するかをキャプチャする、$hat Psi(h,theta)$によって与えられる新しい計量である「感受性比」を示す。
論文 参考訳(メタデータ) (2022-10-20T03:39:44Z) - Instance-Based Neural Dependency Parsing [56.63500180843504]
依存関係解析のための解釈可能な推論プロセスを持つニューラルモデルを開発する。
私たちのモデルはインスタンスベースの推論を採用しており、トレーニングセットのエッジと比較することで、依存関係のエッジを抽出し、ラベル付けします。
論文 参考訳(メタデータ) (2021-09-28T05:30:52Z) - Firearm Detection via Convolutional Neural Networks: Comparing a
Semantic Segmentation Model Against End-to-End Solutions [68.8204255655161]
武器の脅威検出とライブビデオからの攻撃的な行動は、潜在的に致命的な事故の迅速検出と予防に使用できる。
これを実現する一つの方法は、人工知能と、特に画像分析のための機械学習を使用することです。
従来のモノリシックなエンド・ツー・エンドのディープラーニングモデルと、セマンティクスセグメンテーションによって火花を検知する単純なニューラルネットワークのアンサンブルに基づく前述したモデルを比較した。
論文 参考訳(メタデータ) (2020-12-17T15:19:29Z) - Concept Drift Monitoring and Diagnostics of Supervised Learning Models
via Score Vectors [2.7716102039510564]
我々は,概念ドリフトの検出,監視,診断のための包括的かつ計算効率の高いフレームワークを開発した。
具体的には,適合モデルの対数類似度勾配として定義されるフィッシャースコアベクトルをモニターする。
一般的なエラーベース手法よりもパフォーマンス上のメリットは大きいが,従来は概念ドリフトモニタリングではスコアベースのアプローチが考慮されていなかった。
論文 参考訳(メタデータ) (2020-12-12T22:52:45Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z) - Generative Temporal Difference Learning for Infinite-Horizon Prediction [101.59882753763888]
我々は、無限確率的地平線を持つ環境力学の予測モデルである$gamma$-modelを導入する。
トレーニングタイムとテストタイムの複合的なエラーの間には、そのトレーニングが避けられないトレードオフを反映しているかについて議論する。
論文 参考訳(メタデータ) (2020-10-27T17:54:12Z) - A comprehensive study on the prediction reliability of graph neural
networks for virtual screening [0.0]
本稿では,モデルアーキテクチャ,正規化手法,損失関数が分類結果の予測性能および信頼性に与える影響について検討する。
その結果,高い成功率を達成するためには,正則化と推論手法の正しい選択が重要であることが明らかとなった。
論文 参考訳(メタデータ) (2020-03-17T10:13:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。