論文の概要: Tab2vox: CNN-Based Multivariate Multilevel Demand Forecasting Framework
by Tabular-To-Voxel Image Conversion
- arxiv url: http://arxiv.org/abs/2209.10516v1
- Date: Wed, 21 Sep 2022 17:29:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 15:31:41.207412
- Title: Tab2vox: CNN-Based Multivariate Multilevel Demand Forecasting Framework
by Tabular-To-Voxel Image Conversion
- Title(参考訳): Tab2vox: Tabular-to-Voxel画像変換によるCNNに基づく多変量多値需要予測フレームワーク
- Authors: Euna Lee, Myungwoo Nam and Hongchul Lee
- Abstract要約: 畳み込みニューラルネットワーク(CNN)は、データ内の重要な情報が画像によって表現される多くの分野で成功している。
CNNは、サンプルを画像として受け入れ、隣接するボクセルセットを使用して多次元重要な情報を統合するため、強力である。
本研究では,高次元の表層サムプルを良好な3次元ボクセル画像に変換する手法として,Tab2vox Neural Architecture Search (NAS) モデルを提案する。
画像再構成毎にTab2voxフレームワークから提案した3次元CNN予測モデルにより,Supe-riが得られた。
- 参考スコア(独自算出の注目度): 1.933681537640272
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Since demand is influenced by a wide variety of causes, it is necessary to
decompose the explana-tory variables into different levels, extract their
relationships effectively, and reflect them in the forecast. In particular,
this contextual information can be very useful in demand forecasting with large
demand volatility or intermittent demand patterns. Convolutional neural
networks (CNNs) have been successfully used in many fields where important
information in data is represented by images. CNNs are powerful because they
accept samples as images and use adjacent voxel sets to integrate
multi-dimensional important information and learn important features. On the
other hand, although the demand-forecasting model has been improved, the input
data is still limited in its tabular form and is not suitable for CNN modeling.
In this study, we propose a Tab2vox neural architecture search (NAS) model as a
method to convert a high-dimensional tabular sam-ple into a well-formed 3D
voxel image and use it in a 3D CNN network. For each image repre-sentation, the
3D CNN forecasting model proposed from the Tab2vox framework showed supe-rior
performance, compared to the existing time series and machine learning
techniques using tabular data, and the latest image transformation studies.
- Abstract(参考訳): 需要は様々な原因に影響されているため、説明-論理変数を異なるレベルに分解し、それらの関係を効果的に抽出し、予測に反映する必要がある。
特に、この文脈情報は需要変動性や断続的な需要パターンが大きい需要予測において非常に有用である。
畳み込みニューラルネットワーク(CNN)は、データ内の重要な情報が画像によって表現される多くの分野で成功している。
CNNは、サンプルを画像として受け入れ、隣接するボクセルセットを使用して多次元の重要な情報を統合し、重要な特徴を学習するため、強力である。
一方、需要予測モデルは改善されているものの、入力データは依然として表形式で制限されており、cnnモデリングには適していない。
本研究では,高次元表型sam-pleを3次元ボクセル画像に変換し,それを3次元cnnネットワークで使用する手法として,tab2vox neural architecture search(nas)モデルを提案する。
各画像再送に対して,Tab2voxフレームワークから提案した3D CNN予測モデルでは,既存の時系列や,表形式データを用いた機械学習技術と比較して,サペリア性能が示された。
関連論文リスト
- Fuzzy Convolution Neural Networks for Tabular Data Classification [0.0]
畳み込みニューラルネットワーク(CNN)は、様々な領域における顕著な性能のために、多くの注目を集めている。
本稿では,表データに適したファジィ畳み込みニューラルネットワーク(FCNN)を提案する。
論文 参考訳(メタデータ) (2024-06-04T20:33:35Z) - Multi-layer Representation Learning for Robust OOD Image Classification [3.1372269816123994]
我々は、CNNの中間層から特徴を抽出することで、モデルの最終的な予測を支援することができると主張している。
具体的には、ハイパーカラム法をResNet-18に適用し、NICOデータセットで評価した場合、モデルの精度を大幅に向上させる。
論文 参考訳(メタデータ) (2022-07-27T17:46:06Z) - Multimodal Masked Autoencoders Learn Transferable Representations [127.35955819874063]
単純でスケーラブルなネットワークアーキテクチャであるM3AE(Multimodal Masked Autoencoder)を提案する。
M3AEは、マスク付きトークン予測により、視覚と言語データの両方の統一エンコーダを学習する。
我々は,大規模な画像テキストデータセット上で訓練されたM3AEについて実証的研究を行い,M3AEが下流タスクによく伝達される一般化可能な表現を学習できることを見出した。
論文 参考訳(メタデータ) (2022-05-27T19:09:42Z) - Pixel2Mesh++: 3D Mesh Generation and Refinement from Multi-View Images [82.32776379815712]
カメラポーズの有無にかかわらず、少数のカラー画像から3次元メッシュ表現における形状生成の問題について検討する。
我々は,グラフ畳み込みネットワークを用いたクロスビュー情報を活用することにより,形状品質をさらに向上する。
我々のモデルは初期メッシュの品質とカメラポーズの誤差に頑健であり、テスト時間最適化のための微分関数と組み合わせることができる。
論文 参考訳(メタデータ) (2022-04-21T03:42:31Z) - OSLO: On-the-Sphere Learning for Omnidirectional images and its
application to 360-degree image compression [59.58879331876508]
全方向画像の表現モデルの学習について検討し、全方向画像の深層学習モデルで使用される数学的ツールを再定義するために、HEALPixの球面一様サンプリングの特性を利用することを提案する。
提案したオン・ザ・スフィア・ソリューションは、等方形画像に適用された類似の学習モデルと比較して、13.7%のビットレートを節約できる圧縮ゲインを向上させる。
論文 参考訳(メタデータ) (2021-07-19T22:14:30Z) - Cloud based Scalable Object Recognition from Video Streams using
Orientation Fusion and Convolutional Neural Networks [11.44782606621054]
畳み込みニューラルネットワーク(CNN)は、インテリジェントな視覚オブジェクト認識を行うために広く利用されている。
CNNはいまだに深刻な精度低下、特に照明変動データセットに悩まされている。
視覚オブジェクト認識のための方向融合に基づく新しいCNN手法を提案する。
論文 参考訳(メタデータ) (2021-06-19T07:15:15Z) - Efficient Training of Visual Transformers with Small-Size Datasets [64.60765211331697]
進化的ネットワーク(CNN)に代わるアーキテクチャパラダイムとして、ビジュアルトランスフォーマー(VT)が登場している。
ImageNetでトレーニングされた場合、同等の精度を持つにもかかわらず、より小さなデータセットでのパフォーマンスは、大きく異なる可能性があることを示す。
本稿では,計算オーバーヘッドの少ない画像から追加情報を抽出できる自己教師型タスクを提案する。
論文 参考訳(メタデータ) (2021-06-07T16:14:06Z) - Benchmarking CNN on 3D Anatomical Brain MRI: Architectures, Data
Augmentation and Deep Ensemble Learning [2.1446056201053185]
我々は最近のSOTA(State-of-the-art)3D CNNの広範なベンチマークを提案し、データ拡張と深層アンサンブル学習の利点も評価した。
年齢予測,性別分類,統合失調症診断の3つの課題について,N=10kスキャンを含む多地点の脳解剖学的MRIデータセットを用いて実験を行った。
その結果,VBM画像の予測精度は擬似RAWデータよりも有意に向上した。
DenseNetとSmall-DenseNetは、私たちが提案したより軽量なバージョンで、すべてのデータレシエーションのパフォーマンスにおいて優れた妥協を提供する。
論文 参考訳(メタデータ) (2021-06-02T13:00:35Z) - ViViT: A Video Vision Transformer [75.74690759089529]
ビデオ分類にpure-transformerベースのモデルを提案する。
本モデルでは,入力ビデオから時間トークンを抽出し,一連のトランスフォーマー層で符号化する。
トレーニング中にモデルを効果的に正規化し、トレーニング済みの画像モデルを利用して比較的小さなデータセットでトレーニングできることを示します。
論文 参考訳(メタデータ) (2021-03-29T15:27:17Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z) - Convolutional Neural Nets: Foundations, Computations, and New
Applications [0.0]
CNNは、グリッドデータから予測(回帰と分類)を行う機能を強調する強力な機械学習モデルです。
よくある誤解は、cnnは画像やビデオデータしか処理できないということだ。
本稿では,CNNを最適制御,フロー,モニタリング,分子シミュレーションといった新しいタイプのアプリケーションに適用する方法を示す。
論文 参考訳(メタデータ) (2021-01-13T04:20:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。