論文の概要: Automated machine learning for borehole resistivity measurements
        - arxiv url: http://arxiv.org/abs/2207.09849v1
- Date: Wed, 20 Jul 2022 12:27:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-07-21 12:51:18.501485
- Title: Automated machine learning for borehole resistivity measurements
- Title(参考訳): ボアホール比抵抗測定のための自動機械学習
- Authors: M. Shahriari, D. Pardo, S. Kargaran, T. Teijeiro
- Abstract要約: ディープニューラルネットワーク(DNN)は、ボアホール比抵抗測定の反転のためのリアルタイムソリューションを提供する。
非常に大きなDNNを使って演算子を近似することができるが、かなりの訓練時間を必要とする。
本研究では,DNNの精度とサイズを考慮したスコアリング機能を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract:   Deep neural networks (DNNs) offer a real-time solution for the inversion of
borehole resistivity measurements to approximate forward and inverse operators.
It is possible to use extremely large DNNs to approximate the operators, but it
demands a considerable training time. Moreover, evaluating the network after
training also requires a significant amount of memory and processing power. In
addition, we may overfit the model. In this work, we propose a scoring function
that accounts for the accuracy and size of the DNNs compared to a reference DNN
that provides a good approximation for the operators. Using this scoring
function, we use DNN architecture search algorithms to obtain a quasi-optimal
DNN smaller than the reference network; hence, it requires less computational
effort during training and evaluation. The quasi-optimal DNN delivers
comparable accuracy to the original large DNN.
- Abstract(参考訳): 深層ニューラルネットワーク(dnns)は、近似前方および逆演算子へのボアホール比抵抗測定の反転に対するリアルタイム解を提供する。
非常に大きなDNNを使って演算子を近似することができるが、かなりの訓練時間を必要とする。
さらに、トレーニング後のネットワークの評価には、かなりの量のメモリと処理能力が必要となる。
さらに、モデルに過度に適合するかもしれません。
本研究では, DNNの精度とサイズを考慮したスコアリング関数を提案する。
このスコアリング関数を用いて、DNNアーキテクチャ検索アルゴリズムを用いて、参照ネットワークよりも小さい準最適DNNを得る。
準最適DNNは、元の大きなDNNに匹敵する精度を提供する。
 
      
        関連論文リスト
        - Scalable Mechanistic Neural Networks for Differential Equations and   Machine Learning [52.28945097811129]
 長い時間的シーケンスを含む科学機械学習応用のための拡張ニューラルネットワークフレームワークを提案する。
計算時間と空間複雑度はそれぞれ、列長に関して立方体と二次体から線形へと減少する。
大規模な実験により、S-MNNは元のMNNと精度で一致し、計算資源を大幅に削減した。
 論文  参考訳(メタデータ) (2024-10-08T14:27:28Z)
- Use of Parallel Explanatory Models to Enhance Transparency of Neural   Network Configurations for Cell Degradation Detection [18.214293024118145]
 我々は,ニューラルネットワークの内部動作を照らし,理解するための並列モデルを構築している。
RNNの各層が入力分布を変換して検出精度を高める方法を示す。
同時に、精度の向上を制限するために作用する副作用も発見する。
 論文  参考訳(メタデータ) (2024-04-17T12:22:54Z)
- Quantum-Inspired Tensor Neural Networks for Option Pricing [4.3942901219301564]
 近年の深層学習の進歩により,高次元の問題を解くことで,次元性の呪い(COD)に対処することが可能になった。
このようなCODに対処するアプローチのサブセットは、高次元PDEの解決に繋がった。
この結果、数学的な金融から産業用途の制御まで、様々な現実世界の問題を解決するための扉が開けた。
 論文  参考訳(メタデータ) (2022-12-28T19:39:55Z)
- Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
 スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
 論文  参考訳(メタデータ) (2022-11-19T15:44:08Z)
- Recurrent Bilinear Optimization for Binary Neural Networks [58.972212365275595]
 BNNは、実数値重みとスケールファクターの内在的双線型関係を無視している。
私たちの仕事は、双線形の観点からBNNを最適化する最初の試みです。
我々は、様々なモデルやデータセット上で最先端のBNNに対して印象的な性能を示す頑健なRBONNを得る。
 論文  参考訳(メタデータ) (2022-09-04T06:45:33Z)
- Masked Bayesian Neural Networks : Computation and Optimality [1.3649494534428745]
 そこで本稿では, 適切な複雑性を伴って, 優れた深層ニューラルネットワークを探索する, スパースベイズニューラルネットワーク(BNN)を提案する。
我々は各ノードのマスキング変数を用いて、後続分布に応じていくつかのノードをオフにし、ノードワイズDNNを生成する。
いくつかのベンチマークデータセットを解析することにより,提案したBNNが既存手法と比較してよく動作することを示す。
 論文  参考訳(メタデータ) (2022-06-02T02:59:55Z)
- Comparative Analysis of Interval Reachability for Robust Implicit and
  Feedforward Neural Networks [64.23331120621118]
 我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
 論文  参考訳(メタデータ) (2022-04-01T03:31:27Z)
- Can Deep Neural Networks be Converted to Ultra Low-Latency Spiking
  Neural Networks? [3.2108350580418166]
 スパイクニューラルネットワーク(SNN)は、時間とともに分散されたバイナリスパイクを介して動作する。
SNNのためのSOTAトレーニング戦略は、非スパイキングディープニューラルネットワーク(DNN)からの変換を伴う
そこで本研究では,DNNと変換SNNの誤差を最小限に抑えながら,これらの分布を正確にキャプチャする新たなトレーニングアルゴリズムを提案する。
 論文  参考訳(メタデータ) (2021-12-22T18:47:45Z)
- S2-BNN: Bridging the Gap Between Self-Supervised Real and 1-bit Neural
  Networks via Guided Distribution Calibration [74.5509794733707]
 本研究では, 実数値から, 最終予測分布上のバイナリネットワークへの誘導型学習パラダイムを提案する。
提案手法は,bnn上で5.515%の絶対利得で,単純なコントラスト学習ベースラインを向上できる。
提案手法は、単純なコントラスト学習ベースラインよりも大幅に改善され、多くの主流教師付きBNN手法に匹敵する。
 論文  参考訳(メタデータ) (2021-02-17T18:59:28Z)
- Deep Time Delay Neural Network for Speech Enhancement with Full Data
  Learning [60.20150317299749]
 本稿では,全データ学習による音声強調のためのディープタイム遅延ニューラルネットワーク(TDNN)を提案する。
トレーニングデータを完全に活用するために,音声強調のための完全なデータ学習手法を提案する。
 論文  参考訳(メタデータ) (2020-11-11T06:32:37Z)
- TaxoNN: A Light-Weight Accelerator for Deep Neural Network Training [2.5025363034899732]
 本稿では,SGDアルゴリズムを単純な計算要素に分割することで,ベースラインDNNアクセラレータ(推論のみ)にトレーニング能力を付加する手法を提案する。
DNNトレーニングのための軽量加速器であるTaxoNNを提案する。
実験の結果,TaxoNNは実精度よりも平均0.97%,誤分類率が高いことがわかった。
 論文  参考訳(メタデータ) (2020-10-11T09:04:19Z)
- Progressive Tandem Learning for Pattern Recognition with Deep Spiking
  Neural Networks [80.15411508088522]
 スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
 論文  参考訳(メタデータ) (2020-07-02T15:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
       
     
      指定された論文の情報です。
      本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。