論文の概要: Pump It Up: Predict Water Pump Status using Attentive Tabular Learning
- arxiv url: http://arxiv.org/abs/2304.03969v1
- Date: Sat, 8 Apr 2023 09:38:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-11 18:33:45.016696
- Title: Pump It Up: Predict Water Pump Status using Attentive Tabular Learning
- Title(参考訳): pump it up: 注意表学習による水ポンプ状態の予測
- Authors: Karan Pathak, L Shalini
- Abstract要約: タンザニアにおける水ポンプ修復状況を予測するため, 逐次注意深いニューラルネットワークであるTabNetを解析, 適用した。
このモデルは、ツリーベースのアルゴリズムとニューラルネットワークの貴重な利点を組み合わせることで、エンドツーエンドのトレーニング、モデルの解釈可能性、スパース機能の選択、効率的な学習を可能にします。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Water crisis is a crucial concern around the globe. Appropriate and timely
maintenance of water pumps in drought-hit countries is vital for communities
relying on the well. In this paper, we analyze and apply a sequential attentive
deep neural architecture, TabNet, for predicting water pump repair status in
Tanzania. The model combines the valuable benefits of tree-based algorithms and
neural networks, enabling end-to-end training, model interpretability, sparse
feature selection, and efficient learning on tabular data. Finally, we compare
the performance of TabNet with popular gradient tree-boosting algorithms like
XGBoost, LightGBM,CatBoost, and demonstrate how we can further uplift the
performance by choosing focal loss as the objective function while training on
imbalanced data.
- Abstract(参考訳): 水危機は世界中の重要な問題だ。
干ばつ国における水ポンプの適正かつタイムリーな維持は、井戸に依存した地域社会にとって不可欠である。
本稿では,タンザニアにおける水ポンプの修復状況を予測するために,逐次注意深いニューラルネットワークであるTabNetを解析・適用する。
このモデルは、ツリーベースのアルゴリズムとニューラルネットワークの貴重な利点を組み合わせることで、エンドツーエンドのトレーニング、モデルの解釈可能性、スパース機能の選択、表データの効率的な学習を可能にします。
最後に,xgboost,lightgbm,catboostなどの一般的な勾配木ブースティングアルゴリズムとtabnetの性能を比較し,不均衡データをトレーニングしながら焦点損失を目的関数として選択することで,パフォーマンスをさらに高める方法を示す。
関連論文リスト
- ssProp: Energy-Efficient Training for Convolutional Neural Networks with Scheduled Sparse Back Propagation [4.77407121905745]
バックプロパゲーション(BP)は、ディープラーニングモデルをトレーニングする際の計算コストの主要な源泉である。
ディープラーニングアーキテクチャにシームレスに統合できる汎用的でエネルギー効率の良い畳み込みモジュールを提案する。
論文 参考訳(メタデータ) (2024-08-22T17:22:59Z) - Tuning the activation function to optimize the forecast horizon of a
reservoir computer [0.0]
本稿では,ノード活性化関数が貯水池コンピュータのカオス時系列の学習と予測能力に与える影響について検討する。
貯水池の予測が正確である時間であるフォアキャスト・ホライゾン(FH)は、16の活性化関数の集合で桁違いに変化する。
論文 参考訳(メタデータ) (2023-12-20T16:16:01Z) - TransGlow: Attention-augmented Transduction model based on Graph Neural
Networks for Water Flow Forecasting [4.915744683251151]
水量の水量予測は、水管理、洪水予測、洪水制御など様々な用途に有用である。
本稿では,GCRN(Graph Convolution Recurrent Neural Network)エンコーダデコーダの隠れ状態を増大させる時間予測モデルを提案する。
本稿では,河川,河川,湖上のカナダステーションのネットワークから,新たな水流のベンチマークデータセットを提案する。
論文 参考訳(メタデータ) (2023-12-10T18:23:40Z) - Equation Discovery with Bayesian Spike-and-Slab Priors and Efficient Kernels [57.46832672991433]
ケルネル学習とBayesian Spike-and-Slab pres (KBASS)に基づく新しい方程式探索法を提案する。
カーネルレグレッションを用いてターゲット関数を推定する。これはフレキシブルで表現力があり、データ空間やノイズに対してより堅牢である。
我々は,効率的な後部推論と関数推定のための予測伝搬予測最大化アルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-10-09T03:55:09Z) - Excitatory/Inhibitory Balance Emerges as a Key Factor for RBN
Performance, Overriding Attractor Dynamics [35.70635792124142]
貯留層コンピューティングは、伝統的な学習方法に代わる時間とコスト効率を提供する。
特定の分布パラメータが臨界点付近の様々な力学に導かれることを示す。
次に、記憶と予測という2つの困難なタスクにおける性能評価を行い、正の興奮バランスがより高いメモリ性能の臨界点を生み出すことを発見した。
論文 参考訳(メタデータ) (2023-08-02T17:41:58Z) - Optimization of a Hydrodynamic Computational Reservoir through Evolution [58.720142291102135]
我々は,スタートアップが開発中の流体力学系のモデルと,計算貯水池としてインターフェースする。
我々は、進化探索アルゴリズムを用いて、読み出し時間と入力を波の振幅や周波数にどのようにマッピングするかを最適化した。
この貯水池システムに進化的手法を適用することで、手作業パラメータを用いた実装と比較して、XNORタスクの分離性が大幅に向上した。
論文 参考訳(メタデータ) (2023-04-20T19:15:02Z) - Transfer Learning with Deep Tabular Models [66.67017691983182]
上流データにより、グラフニューラルネットワークはGBDTモデルよりも決定的な優位性を示す。
そこで本研究では,表在化学習のための現実的な診断ベンチマークを提案する。
上流と下流の特徴セットが異なる場合の擬似特徴法を提案する。
論文 参考訳(メタデータ) (2022-06-30T14:24:32Z) - Powerpropagation: A sparsity inducing weight reparameterisation [65.85142037667065]
我々は、本質的にスパースモデルにつながるニューラルネットワークの新しい重みパラメータ化であるPowerpropagationを紹介した。
この方法で訓練されたモデルは同様の性能を示すが、0で明らかに高い密度の分布を持ち、より多くのパラメータを安全に刈り取ることができる。
ここでは、Powerpropagationと従来のウェイトプルーニング技術と、最近の最先端スパース・トゥ・スパースアルゴリズムを組み合わせることで、ImageNetベンチマークで優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2021-10-01T10:03:57Z) - Bayesian Active Learning for Wearable Stress and Affect Detection [0.7106986689736827]
デバイス上での深層学習アルゴリズムによるストレス検出は、広汎なコンピューティングの進歩により増加傾向にある。
本稿では,ベイズニューラルネットワークの近似によるモデル不確実性を表現可能なフレームワークを提案する。
提案手法は, 提案手法により, 推定時の効率を著しく向上し, 獲得したプール点数がかなり少なくなる。
論文 参考訳(メタデータ) (2020-12-04T16:19:37Z) - Optimizing Memory Placement using Evolutionary Graph Reinforcement
Learning [56.83172249278467]
大規模検索空間を対象とした進化グラフ強化学習(EGRL)を提案する。
我々は、推論のために、Intel NNP-Iチップ上で、我々のアプローチを直接訓練し、検証する。
また,NNP-Iコンパイラと比較して28~78%の高速化を実現している。
論文 参考訳(メタデータ) (2020-07-14T18:50:12Z) - Tracking Performance of Online Stochastic Learners [57.14673504239551]
オンラインアルゴリズムは、大規模なバッチにデータを保存したり処理したりすることなく、リアルタイムで更新を計算できるため、大規模な学習環境で人気がある。
一定のステップサイズを使用すると、これらのアルゴリズムはデータやモデル特性などの問題パラメータのドリフトに適応し、適切な精度で最適解を追跡する能力を持つ。
定常仮定に基づく定常状態性能とランダムウォークモデルによるオンライン学習者の追跡性能の関連性を確立する。
論文 参考訳(メタデータ) (2020-04-04T14:16:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。