論文の概要: Enforcing Equity in Neural Climate Emulators
- arxiv url: http://arxiv.org/abs/2406.19636v1
- Date: Fri, 28 Jun 2024 03:47:54 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-01 17:50:12.932019
- Title: Enforcing Equity in Neural Climate Emulators
- Title(参考訳): ニューラル気候エミュレータにおける等価性
- Authors: William Yik, Sam J. Silva,
- Abstract要約: ニューラルネットワークエミュレータを予測の不平等な品質で罰するカスタム損失関数を提案する。
損失関数は、ニューラルネットワークを向かわせるために、特定の株式の定義を規定しない。
以上の結果から, 損失関数でトレーニングしたニューラル気候エミュレータの方が, より公平な予測が可能であることが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural network emulators have become an invaluable tool for a wide variety of climate and weather prediction tasks. While showing incredibly promising results, these networks do not have an inherent ability to produce equitable predictions. That is, they are not guaranteed to provide a uniform quality of prediction along any particular class or group of people. This potential for inequitable predictions motivates the need for explicit representations of fairness in these neural networks. To that end, we draw on methods for enforcing analytical physical constraints in neural networks to bias networks towards more equitable predictions. We demonstrate the promise of this methodology using the task of climate model emulation. Specifically, we propose a custom loss function which punishes emulators with unequal quality of predictions across any prespecified regions or category, here defined using human development index (HDI). This loss function weighs a standard loss metric such as mean squared error against another metric which captures inequity along the equity category (HDI), allowing us to adjust the priority of each term before training. Importantly, the loss function does not specify a particular definition of equity to bias the neural network towards, opening the door for custom fairness metrics. Our results show that neural climate emulators trained with our loss function provide more equitable predictions and that the equity metric improves with greater weighting in the loss function. We empirically demonstrate that while there is a tradeoff between accuracy and equity when prioritizing the latter during training, an appropriate selection of the equity priority hyperparameter can minimize loss of performance.
- Abstract(参考訳): ニューラルネットワークエミュレータは、さまざまな気候や天気予報タスクにおいて、貴重なツールとなっている。
驚くほど有望な結果を示す一方で、これらのネットワークは等価な予測を生成する固有の能力を持っていない。
つまり、特定のクラスやグループに沿って予測の均一な品質を提供することは保証されていない。
この不平等な予測のポテンシャルは、これらのニューラルネットワークにおける公正性の明示的な表現の必要性を動機付けている。
そこで我々は,ニューラルネットワークにおける解析的物理的制約を,より公平な予測に向けてバイアスネットワークに強制する手法を考案した。
我々は,気候モデルエミュレーションの課題を用いて,この方法論の可能性を実証する。
具体的には、人間開発指標(HDI)を用いて、事前に特定された地域やカテゴリーにまたがる予測の不平等な品質でエミュレータを罰するカスタム・ロス関数を提案する。
この損失関数は、エクイティカテゴリー(HDI)に沿った不等式を捉え、トレーニング前の各項の優先順位を調整することができる別の指標に対する平均二乗誤差のような標準的な損失計量を重み付けする。
重要なのは、損失関数がニューラルネットワークをバイアスする特定の株式の定義を指定せず、カスタムフェアネスメトリクスの扉を開くことだ。
その結果, 損失関数でトレーニングしたニューラル気候エミュレータは, より公平な予測が可能であり, 損失関数の重み付けにより, エクイティ指標が向上することが示唆された。
トレーニング中に後者を優先する場合、精度とエクイティとの間にトレードオフがあることを実証的に示すが、エクイティ優先度ハイパーパラメータの適切な選択は、パフォーマンスの損失を最小限に抑えることができる。
関連論文リスト
- Outage Performance and Novel Loss Function for an ML-Assisted Resource
Allocation: An Exact Analytical Framework [2.1397655110395752]
本稿では,MLベースのリソース割り当てシステムの停止確率を最小限に抑えるために,新たな損失関数を提案する。
MLバイナリ分類予測器は、確立された停止基準を満たすリソースの選択を支援する。
論文 参考訳(メタデータ) (2023-05-16T18:23:52Z) - Learning to Predict Trustworthiness with Steep Slope Loss [69.40817968905495]
本研究では,現実の大規模データセットにおける信頼性の予測問題について検討する。
我々は、先行技術損失関数で訓練された信頼性予測器が、正しい予測と誤った予測の両方を信頼に値するものとみなす傾向があることを観察する。
そこで我々は,2つのスライド状の曲線による不正確な予測から,特徴w.r.t.正しい予測を分離する,新たな急勾配損失を提案する。
論文 参考訳(メタデータ) (2021-09-30T19:19:09Z) - Predicting Deep Neural Network Generalization with Perturbation Response
Curves [58.8755389068888]
トレーニングネットワークの一般化能力を評価するための新しいフレームワークを提案する。
具体的には,一般化ギャップを正確に予測するための2つの新しい尺度を提案する。
PGDL(Predicting Generalization in Deep Learning)のNeurIPS 2020コンペティションにおけるタスクの大部分について、現在の最先端の指標よりも優れた予測スコアを得る。
論文 参考訳(メタデータ) (2021-06-09T01:37:36Z) - Learning Uncertainty with Artificial Neural Networks for Improved
Remaining Time Prediction of Business Processes [0.15229257192293202]
本論文では,これらの手法を予測過程のモニタリングに応用する。
より正確な予測と迅速な作業に貢献できることが分かりました。
これは多くの興味深い応用をもたらし、より小さなデータセットを持つ予測システムを早期に導入し、人間とのより良い協力を促進する。
論文 参考訳(メタデータ) (2021-05-12T10:18:57Z) - Interpretable Social Anchors for Human Trajectory Forecasting in Crowds [84.20437268671733]
本研究では,人混みの軌跡を予測できるニューラルネットワークシステムを提案する。
解釈可能なルールベースのインテントを学び、ニューラルネットワークの表現可能性を利用してシーン固有の残差をモデル化する。
私たちのアーキテクチャは、インタラクション中心のベンチマークTrajNet++でテストされています。
論文 参考訳(メタデータ) (2021-05-07T09:22:34Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Adversarial Refinement Network for Human Motion Prediction [61.50462663314644]
リカレントニューラルネットワークとフィードフォワードディープネットワークという2つの一般的な手法は、粗い動きの傾向を予測することができる。
本稿では,新たな逆誤差増大を伴う簡易かつ効果的な粗大きめ機構に従えば,ARNet(Adversarial Refinement Network)を提案する。
論文 参考訳(メタデータ) (2020-11-23T05:42:20Z) - An Uncertainty-based Human-in-the-loop System for Industrial Tool Wear
Analysis [68.8204255655161]
人間のループシステムにおけるモンテカルロのドロップアウトに基づく不確実性対策により,システムの透明性と性能が向上することを示す。
シミュレーション研究により、不確実性に基づく「ループ内人間システム」は、様々なレベルの人間の関与に対する性能を高めることが示されている。
論文 参考訳(メタデータ) (2020-07-14T15:47:37Z) - Estimation with Uncertainty via Conditional Generative Adversarial
Networks [3.829070379776576]
条件付き生成逆数ネットワーク(cGAN)におけるジェネレータの使い方が異なる予測確率型ニューラルネットワークモデルを提案する。
通常のcGANの入力と出力を反転させることで、モデルを予測モデルとしてうまく利用することができる。
さらに,予測の不確実性を測定するために,回帰問題や分類問題に対するエントロピーと相対エントロピーを導入する。
論文 参考訳(メタデータ) (2020-07-01T08:54:17Z) - On the use of recurrent neural networks for predictions of turbulent
flows [1.95992742032823]
適切に訓練された長期記憶ネットワークを用いて乱流統計の優れた予測を得ることが可能である。
瞬時に予測されるだけでなく、流れの平均的な振る舞いを含むより洗練された損失関数は、より高速なニューラルネットワークトレーニングにつながる可能性がある。
論文 参考訳(メタデータ) (2020-02-04T11:01:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。