論文の概要: Multi Level Dense Layer Neural Network Model for Housing Price
Prediction
- arxiv url: http://arxiv.org/abs/2310.08133v1
- Date: Thu, 12 Oct 2023 08:46:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-14 12:24:36.473714
- Title: Multi Level Dense Layer Neural Network Model for Housing Price
Prediction
- Title(参考訳): 住宅価格予測のためのマルチレベル高層ニューラルネットワークモデル
- Authors: Robert Wijaya
- Abstract要約: 著者らは、住宅価格予測の性能を改善するために、ニューラルネットワークベースの新しいモデルを提案する。
提案するモデルは,並列に情報を処理可能な3レベルニューラルネットワークで構成されている。
その結果,提案モデルでは精度が向上し,評価基準の異なる既存アルゴリズムよりも優れていることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Predicting the price of a house remains a challenging issue that needs to be
addressed. Research has attempted to establish a model with different methods
and algorithms to predict the housing price, from the traditional hedonic model
to a neural network algorithm. However, many existing algorithms in the
literature are proposed without any finetuning and customization in the model.
In this paper, the author attempted to propose a novel neural network-based
model to improve the performance of housing price prediction. Inspired by the
modular neural network, the proposed model consists of a three-level neural
network that is capable to process information in parallel. The author compared
several state-of-the-art algorithms available in the literature on the Boston
housing dataset to evaluate the effectiveness of the proposed model. The
results show that the proposed model provides better accuracy and outperforms
existing algorithms in different evaluation metrics. The code for the
implementation is available
https://github.com/wijayarobert/MultiLevelDenseLayerNN
- Abstract(参考訳): 住宅価格の予測は、対処しなければならない課題である。
研究は、従来のヘドニックモデルからニューラルネットワークアルゴリズムまで、住宅価格を予測するための異なる方法とアルゴリズムを持つモデルを確立することを試みた。
しかし,本論文の既存のアルゴリズムの多くは,モデルの微調整やカスタマイズを伴わずに提案されている。
本稿では,住宅価格予測の性能向上を目的としたニューラルネットワークモデルを提案する。
モジュラーニューラルネットワークにインスパイアされた提案モデルは,並列に情報を処理可能な3レベルニューラルネットワークで構成されている。
筆者は,提案モデルの有効性を評価するために,boston housingデータセットの文献で利用可能な最先端アルゴリズムをいくつか比較した。
その結果,提案モデルにより精度が向上し,既存のアルゴリズムを異なる評価指標で上回ることがわかった。
実装のコードはhttps://github.com/wijayarobert/MultiLevelDenseLayerNNで入手できる。
関連論文リスト
- Neural-g: A Deep Learning Framework for Mixing Density Estimation [16.464806944964003]
混合(または先行)密度推定は、機械学習と統計学において重要な問題である。
本稿では,新しいニューラルネットワークを用いたモデリング手法であるNeural-$g$を提案する。
論文 参考訳(メタデータ) (2024-06-10T03:00:28Z) - Robust Training and Verification of Implicit Neural Networks: A
Non-Euclidean Contractive Approach [64.23331120621118]
本稿では,暗黙的ニューラルネットワークのトレーニングとロバスト性検証のための理論的および計算的枠組みを提案する。
組込みネットワークを導入し、組込みネットワークを用いて、元のネットワークの到達可能な集合の超近似として$ell_infty$-normボックスを提供することを示す。
MNISTデータセット上で暗黙的なニューラルネットワークをトレーニングするためにアルゴリズムを適用し、我々のモデルの堅牢性と、文献における既存のアプローチを通じてトレーニングされたモデルを比較する。
論文 参考訳(メタデータ) (2022-08-08T03:13:24Z) - Model Architecture Adaption for Bayesian Neural Networks [9.978961706999833]
我々はBNNを精度と不確実性の両方に最適化する新しいネットワークアーキテクチャサーチ(NAS)を示す。
我々の実験では,探索されたモデルでは,最先端(ディープアンサンブル)と比較して,不確実性と精度が比較できる。
論文 参考訳(メタデータ) (2022-02-09T10:58:50Z) - Neural Capacitance: A New Perspective of Neural Network Selection via
Edge Dynamics [85.31710759801705]
現在の実践は、性能予測のためのモデルトレーニングにおいて高価な計算コストを必要とする。
本稿では,学習中のシナプス接続(エッジ)上の制御ダイナミクスを解析し,ニューラルネットワーク選択のための新しいフレームワークを提案する。
我々のフレームワークは、ニューラルネットワークトレーニング中のバックプロパゲーションがシナプス接続の動的進化と等価であるという事実に基づいて構築されている。
論文 参考訳(メタデータ) (2022-01-11T20:53:15Z) - Robustness Certificates for Implicit Neural Networks: A Mixed Monotone
Contractive Approach [60.67748036747221]
暗黙のニューラルネットワークは、競合性能とメモリ消費の削減を提供する。
入力逆流の摂動に関して、それらは不安定なままである。
本稿では,暗黙的ニューラルネットワークのロバスト性検証のための理論的および計算的枠組みを提案する。
論文 参考訳(メタデータ) (2021-12-10T03:08:55Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - Local Critic Training for Model-Parallel Learning of Deep Neural
Networks [94.69202357137452]
そこで我々は,局所的批判訓練と呼ばれる新しいモデル並列学習手法を提案する。
提案手法は,畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)の両方において,階層群の更新プロセスの分離に成功したことを示す。
また,提案手法によりトレーニングされたネットワークを構造最適化に利用できることを示す。
論文 参考訳(メタデータ) (2021-02-03T09:30:45Z) - Sparsely constrained neural networks for model discovery of PDEs [0.0]
本稿では,任意のスパース回帰手法を用いて,ディープラーニングに基づくサロゲートのスパースパターンを決定するモジュラーフレームワークを提案する。
異なるネットワークアーキテクチャと疎度推定器がモデル発見精度と収束性を,いくつかのベンチマーク例でどのように改善するかを示す。
論文 参考訳(メタデータ) (2020-11-09T11:02:40Z) - Neural Thompson Sampling [94.82847209157494]
本稿では,ニューラルトンプソンサンプリング(Neural Thompson Smpling)と呼ばれる新しいアルゴリズムを提案する。
我々のアルゴリズムの中核は報酬の新たな後部分布であり、その平均はニューラルネットワーク近似器であり、その分散は対応するニューラルネットワークのニューラル・タンジェントな特徴に基づいて構築されている。
論文 参考訳(メタデータ) (2020-10-02T07:44:09Z) - Research on a New Convolutional Neural Network Model Combined with
Random Edges Adding [10.519799195357209]
畳み込みニューラルネットワークモデルの性能向上のために,ランダムエッジ付加アルゴリズムを提案する。
シミュレーションの結果, モデル認識精度とトレーニング収束速度は, 再構成モデルのランダムエッジ付加により大幅に向上することがわかった。
論文 参考訳(メタデータ) (2020-03-17T16:17:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。