論文の概要: How to address monotonicity for model risk management?
- arxiv url: http://arxiv.org/abs/2305.00799v2
- Date: Sun, 24 Sep 2023 05:35:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-27 03:03:00.979982
- Title: How to address monotonicity for model risk management?
- Title(参考訳): モデルリスク管理のためのモノトニック性に対処するには?
- Authors: Dangxing Chen, Weicheng Ye
- Abstract要約: 本稿では, 個々の単調性, 弱い対単調性, 強い対単調性という, 3種類の単調性の存在下での透明ニューラルネットワークについて検討する。
透明性を維持しながらモノトニック性を達成する手段として,ニューラル付加モデルのモノトニックグローブを提案する。
- 参考スコア(独自算出の注目度): 1.0878040851638
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we study the problem of establishing the accountability and
fairness of transparent machine learning models through monotonicity. Although
there have been numerous studies on individual monotonicity, pairwise
monotonicity is often overlooked in the existing literature. This paper studies
transparent neural networks in the presence of three types of monotonicity:
individual monotonicity, weak pairwise monotonicity, and strong pairwise
monotonicity. As a means of achieving monotonicity while maintaining
transparency, we propose the monotonic groves of neural additive models. As a
result of empirical examples, we demonstrate that monotonicity is often
violated in practice and that monotonic groves of neural additive models are
transparent, accountable, and fair.
- Abstract(参考訳): 本稿では,モノトニック性を用いた透明機械学習モデルの説明責任と公平性を確立することの課題について検討する。
個々の単調性について多くの研究がなされているが、一調性は既存の文献ではしばしば見過ごされている。
本稿では, 個々の単調性, 弱い一調性, 強い一調性という3種類の単調性の存在下での透明ニューラルネットワークについて検討する。
透明性を維持しながら単調性を達成するために,神経添加モデルの単調グローブを提案する。
実証実験の結果, モノトニック性は実際にしばしば侵害され, 神経付加モデルのモノトニックグローブは透明であり, 説明可能であり, 公平であることがわかった。
関連論文リスト
- Transferring Annotator- and Instance-dependent Transition Matrix for Learning from Crowds [88.06545572893455]
現実のクラウドソーシングシナリオでは、ノイズ遷移行列はアノテータとインスタンスに依存します。
まず、すべてのアノテータによるノイズパターンの混合をモデル化し、その後、個々のアノテータにこのモデリングを転送する。
実験により、合成および実世界のクラウドソーシングデータに対する提案手法の優位性が確認された。
論文 参考訳(メタデータ) (2023-06-05T13:43:29Z) - Evade the Trap of Mediocrity: Promoting Diversity and Novelty in Text
Generation via Concentrating Attention [85.5379146125199]
強力なトランスフォーマーアーキテクチャは高品質な文を生成するのに優れていることが証明されている。
本研究では,Transformerにおけるスペーサーの注意値が多様性を向上させることを発見した。
注意分布のシャープさを制御するために,新しい注意正規化損失を導入する。
論文 参考訳(メタデータ) (2022-11-14T07:53:16Z) - On Biasing Transformer Attention Towards Monotonicity [20.205388243570003]
標準注意機構と互換性のある単調性損失関数を導入し,いくつかのシーケンスからシーケンスへのタスクでテストする。
実験により、ほとんど単調な振る舞いが達成できることが示される。
一般的な単調性はトランスマルチヘッドの注意に役立ちませんが、単調な行動に偏っているのは、ヘッドのサブセットのみです。
論文 参考訳(メタデータ) (2021-04-08T17:42:05Z) - A study of latent monotonic attention variants [65.73442960456013]
エンドツーエンドモデルは音声認識の最先端性能に達するが、グローバルソフトな注意は単調ではない。
本稿では,新しい潜在変数を導入することで,単調性を導入する数学的にクリーンな解を提案する。
モノトニックモデルがグローバルソフトアテンションモデルと同等の性能を発揮することを示す。
論文 参考訳(メタデータ) (2021-03-30T22:35:56Z) - Certified Monotonic Neural Networks [15.537695725617576]
本稿では,混合整数線形計画問題の解法により,一般のピースワイド線形ニューラルネットワークの単調性を証明することを提案する。
我々のアプローチでは、重み空間に対する人間設計の制約を必要とせず、より正確な近似が得られる。
論文 参考訳(メタデータ) (2020-11-20T04:58:13Z) - Contextuality scenarios arising from networks of stochastic processes [68.8204255655161]
経験的モデルは、その分布が X 上の合同分布を極小化することができなければ文脈的と言える。
我々は、多くのプロセス間の相互作用という、文脈的経験的モデルの異なる古典的な源泉を示す。
長期にわたるネットワークの統計的挙動は、経験的モデルを一般的な文脈的かつ強い文脈的にする。
論文 参考訳(メタデータ) (2020-06-22T16:57:52Z) - Counterexample-Guided Learning of Monotonic Neural Networks [32.73558242733049]
単調性制約に注目するが、これは一般的であり、特定の入力特徴の値が増加するにつれて関数の出力が増加することが要求される。
本研究では,予測時の単調性制約を確実に強制する逆例誘導手法を開発した。
深層学習の帰納バイアスとして単調性を用いる手法も提案する。
論文 参考訳(メタデータ) (2020-06-16T01:04:26Z) - Monotone operator equilibrium networks [97.86610752856987]
我々はモノトン作用素の理論に基づく新しい暗黙深度モデル、モノトン演算子平衡ネットワーク(monDEQ)を開発した。
暗黙的ネットワークの平衡点の発見と単調作用素分割問題の解法との密接な関係を示す。
次に、ネットワークのパラメータ化を開発し、全ての作用素が単調であり続けることを保証し、ユニークな平衡点の存在を保証する。
論文 参考訳(メタデータ) (2020-06-15T17:57:31Z) - Exact Hard Monotonic Attention for Character-Level Transduction [76.66797368985453]
非単調なソフトアテンションを用いたニューラルシークエンス・ツー・シーケンスモデルは、しばしば一般的な単調モデルよりも優れていることを示す。
我々は、厳密な単調性を強制し、トランスデューサの学習中に協調して潜時アライメントを学習するハードアテンションシーケンス・ツー・シーケンス・モデルを開発した。
論文 参考訳(メタデータ) (2019-05-15T17:51:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。