論文の概要: How to address monotonicity for model risk management?
- arxiv url: http://arxiv.org/abs/2305.00799v1
- Date: Fri, 28 Apr 2023 04:21:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-02 13:23:34.610788
- Title: How to address monotonicity for model risk management?
- Title(参考訳): モデルリスク管理のためのモノトニック性に対処するには?
- Authors: Dangxing Chen, Weicheng Ye
- Abstract要約: 本稿では, 個々の単調性, 弱い対単調性, 強い対単調性という, 3種類の単調性の存在下での透明ニューラルネットワークについて検討する。
透明性を維持しながらモノトニック性を達成する手段として,ニューラル付加モデルのモノトニックグローブを提案する。
- 参考スコア(独自算出の注目度): 1.90365714903665
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we study the problem of establishing the accountability and
fairness of transparent machine learning models through monotonicity. Although
there have been numerous studies on individual monotonicity, pairwise
monotonicity is often overlooked in the existing literature. This paper studies
transparent neural networks in the presence of three types of monotonicity:
individual monotonicity, weak pairwise monotonicity, and strong pairwise
monotonicity. As a means of achieving monotonicity while maintaining
transparency, we propose the monotonic groves of neural additive models. As a
result of empirical examples, we demonstrate that monotonicity is often
violated in practice and that monotonic groves of neural additive models are
transparent, accountable, and fair.
- Abstract(参考訳): 本稿では,モノトニック性を用いた透明機械学習モデルの説明責任と公平性を確立することの課題について検討する。
個々の単調性について多くの研究がなされているが、一調性は既存の文献ではしばしば見過ごされている。
本稿では, 個々の単調性, 弱い一調性, 強い一調性という3種類の単調性の存在下での透明ニューラルネットワークについて検討する。
透明性を維持しながら単調性を達成するために,神経添加モデルの単調グローブを提案する。
実証実験の結果, モノトニック性は実際にしばしば侵害され, 神経付加モデルのモノトニックグローブは透明であり, 説明可能であり, 公平であることがわかった。
関連論文リスト
- Beyond Interpretability: The Gains of Feature Monosemanticity on Model Robustness [68.69369585600698]
ディープラーニングモデルは多意味性による解釈可能性の欠如に悩まされることが多い。
神経細胞が一貫したセマンティクスと異なるセマンティクスに対応するモノセマンティクスの最近の進歩は、解釈可能性を大幅に改善した。
モノセマンティックな特徴は解釈可能性を高めるだけでなく、モデル性能の具体的な向上をもたらすことを示す。
論文 参考訳(メタデータ) (2024-10-27T18:03:20Z) - MonoKAN: Certified Monotonic Kolmogorov-Arnold Network [48.623199394622546]
特定のアプリケーションでは、モデル予測は専門家が提案した要件と一致し、時には部分的な単調性制約によって例示されなければならない。
我々は,kanアーキテクチャに基づく新しいANNアーキテクチャMonoKANを導入し,解釈性を高めつつ,認証された部分的単調性を実現する。
実験の結果,MonoKANは解釈可能性を高めるだけでなく,ほとんどのベンチマークにおける予測性能も向上し,最先端のモノトニックアプローチよりも優れていた。
論文 参考訳(メタデータ) (2024-09-17T11:10:59Z) - On Biasing Transformer Attention Towards Monotonicity [20.205388243570003]
標準注意機構と互換性のある単調性損失関数を導入し,いくつかのシーケンスからシーケンスへのタスクでテストする。
実験により、ほとんど単調な振る舞いが達成できることが示される。
一般的な単調性はトランスマルチヘッドの注意に役立ちませんが、単調な行動に偏っているのは、ヘッドのサブセットのみです。
論文 参考訳(メタデータ) (2021-04-08T17:42:05Z) - A study of latent monotonic attention variants [65.73442960456013]
エンドツーエンドモデルは音声認識の最先端性能に達するが、グローバルソフトな注意は単調ではない。
本稿では,新しい潜在変数を導入することで,単調性を導入する数学的にクリーンな解を提案する。
モノトニックモデルがグローバルソフトアテンションモデルと同等の性能を発揮することを示す。
論文 参考訳(メタデータ) (2021-03-30T22:35:56Z) - Certified Monotonic Neural Networks [15.537695725617576]
本稿では,混合整数線形計画問題の解法により,一般のピースワイド線形ニューラルネットワークの単調性を証明することを提案する。
我々のアプローチでは、重み空間に対する人間設計の制約を必要とせず、より正確な近似が得られる。
論文 参考訳(メタデータ) (2020-11-20T04:58:13Z) - Contextuality scenarios arising from networks of stochastic processes [68.8204255655161]
経験的モデルは、その分布が X 上の合同分布を極小化することができなければ文脈的と言える。
我々は、多くのプロセス間の相互作用という、文脈的経験的モデルの異なる古典的な源泉を示す。
長期にわたるネットワークの統計的挙動は、経験的モデルを一般的な文脈的かつ強い文脈的にする。
論文 参考訳(メタデータ) (2020-06-22T16:57:52Z) - Counterexample-Guided Learning of Monotonic Neural Networks [32.73558242733049]
単調性制約に注目するが、これは一般的であり、特定の入力特徴の値が増加するにつれて関数の出力が増加することが要求される。
本研究では,予測時の単調性制約を確実に強制する逆例誘導手法を開発した。
深層学習の帰納バイアスとして単調性を用いる手法も提案する。
論文 参考訳(メタデータ) (2020-06-16T01:04:26Z) - Monotone operator equilibrium networks [97.86610752856987]
我々はモノトン作用素の理論に基づく新しい暗黙深度モデル、モノトン演算子平衡ネットワーク(monDEQ)を開発した。
暗黙的ネットワークの平衡点の発見と単調作用素分割問題の解法との密接な関係を示す。
次に、ネットワークのパラメータ化を開発し、全ての作用素が単調であり続けることを保証し、ユニークな平衡点の存在を保証する。
論文 参考訳(メタデータ) (2020-06-15T17:57:31Z) - Exact Hard Monotonic Attention for Character-Level Transduction [76.66797368985453]
非単調なソフトアテンションを用いたニューラルシークエンス・ツー・シーケンスモデルは、しばしば一般的な単調モデルよりも優れていることを示す。
我々は、厳密な単調性を強制し、トランスデューサの学習中に協調して潜時アライメントを学習するハードアテンションシーケンス・ツー・シーケンス・モデルを開発した。
論文 参考訳(メタデータ) (2019-05-15T17:51:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。