論文の概要: Effective Version Space Reduction for Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2006.12456v1
- Date: Mon, 22 Jun 2020 17:40:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 04:38:09.479846
- Title: Effective Version Space Reduction for Convolutional Neural Networks
- Title(参考訳): 畳み込みニューラルネットワークの有効バージョン空間削減
- Authors: Jiayu Liu, Ioannis Chiotellis, Rudolph Triebel, Daniel Cremers
- Abstract要約: アクティブラーニングでは、サンプリングバイアスは深刻な矛盾問題を引き起こし、アルゴリズムが最適な仮説を見つけるのを妨げる可能性がある。
本稿では,畳み込みニューラルネットワークを用いた能動学習について,バージョン空間削減の原理的レンズを用いて検討する。
- 参考スコア(独自算出の注目度): 61.84773892603885
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In active learning, sampling bias could pose a serious inconsistency problem
and hinder the algorithm from finding the optimal hypothesis. However, many
methods for neural networks are hypothesis space agnostic and do not address
this problem. We examine active learning with convolutional neural networks
through the principled lens of version space reduction. We identify the
connection between two approaches---prior mass reduction and diameter
reduction---and propose a new diameter-based querying method---the minimum
Gibbs-vote disagreement. By estimating version space diameter and bias, we
illustrate how version space of neural networks evolves and examine the
realizability assumption. With experiments on MNIST, Fashion-MNIST, SVHN and
STL-10 datasets, we demonstrate that diameter reduction methods reduce the
version space more effectively and perform better than prior mass reduction and
other baselines, and that the Gibbs vote disagreement is on par with the best
query method.
- Abstract(参考訳): アクティブラーニングでは、サンプリングバイアスは深刻な矛盾問題を引き起こし、アルゴリズムが最適な仮説を見つけるのを妨げる可能性がある。
しかし、ニューラルネットワークの多くの方法は仮説空間に依存しず、この問題に対処しない。
畳み込みニューラルネットワークを用いた能動的学習を,バージョン空間削減の原理付きレンズを用いて検討する。
主質量減少と径減少の2つのアプローチの関連性を同定し, 最小gibbs-vote不一致の新たな径ベースクエリ法を提案する。
バージョン空間の直径とバイアスを推定することにより、ニューラルネットワークのバージョン空間がどのように進化し、実現可能性の仮定を調べるかを説明する。
MNIST, Fashion-MNIST, SVHN, STL-10データセットに対する実験により, 粒径削減法がバージョン空間をより効果的に削減し, 以前の質量減少や他のベースラインよりも優れた性能を発揮することを示した。
関連論文リスト
- Robust Weight Initialization for Tanh Neural Networks with Fixed Point Analysis [5.016205338484259]
提案手法は既存手法よりもネットワークサイズの変化に頑健である。
物理インフォームドニューラルネットワークに適用すると、ネットワークサイズの変化に対するより高速な収束とロバスト性を示す。
論文 参考訳(メタデータ) (2024-10-03T06:30:27Z) - The Unreasonable Effectiveness of Solving Inverse Problems with Neural Networks [24.766470360665647]
逆問題に対する解を学ぶために訓練されたニューラルネットワークは、トレーニングセット上でも古典よりも優れた解を見つけることができることを示す。
高速な推論のために新しいデータに一般化するのではなく、既知のデータに対するより良い解決策を見つけるためにも使用できる。
論文 参考訳(メタデータ) (2024-08-15T12:38:10Z) - Sparsifying dimensionality reduction of PDE solution data with Bregman learning [1.2016264781280588]
本稿では,エンコーダ・デコーダネットワークにおいて,パラメータ数を効果的に削減し,潜在空間を圧縮する多段階アルゴリズムを提案する。
従来のAdamのようなトレーニング手法と比較して、提案手法はパラメータが30%少なく、潜在空間が著しく小さいため、同様の精度が得られる。
論文 参考訳(メタデータ) (2024-06-18T14:45:30Z) - What to Do When Your Discrete Optimization Is the Size of a Neural
Network? [24.546550334179486]
ニューラルネットワークを用いた機械学習アプリケーションは、離散最適化問題を解くことを含む。
離散的な設定で使用される古典的なアプローチは、大きなニューラルネットワークに対してうまくスケールしない。
連続経路(CP)法は,前者およびモンテカルロ法(MC)法を純粋に表現し,後者を表現している。
論文 参考訳(メタデータ) (2024-02-15T21:57:43Z) - Solutions to Elliptic and Parabolic Problems via Finite Difference Based Unsupervised Small Linear Convolutional Neural Networks [1.124958340749622]
線形畳み込みニューラルネットワークを用いてPDEの有限差分解を直接推定するために、トレーニングデータを必要としない完全に教師なしのアプローチを提案する。
提案手法は、類似の有限差分に基づくアプローチよりもパラメータを著しく少なくし、また、いくつかの選択された楕円型および放物型問題に対する真の解に匹敵する精度を示す。
論文 参考訳(メタデータ) (2023-11-01T03:15:10Z) - Deep Graph Neural Networks via Posteriori-Sampling-based Node-Adaptive Residual Module [65.81781176362848]
グラフニューラルネットワーク(GNN)は、近隣情報収集を通じてグラフ構造化データから学習することができる。
レイヤーの数が増えるにつれて、ノード表現は区別不能になり、オーバー・スムーシング(over-smoothing)と呼ばれる。
我々は,textbfPosterior-Sampling-based, Node-distinguish Residual Module (PSNR)を提案する。
論文 参考訳(メタデータ) (2023-05-09T12:03:42Z) - Decomposed Diffusion Sampler for Accelerating Large-Scale Inverse
Problems [64.29491112653905]
本稿では, 拡散サンプリング法とクリロフ部分空間法を相乗的に組み合わせた, 新規で効率的な拡散サンプリング手法を提案する。
具体的には、ツイーディの公式による分母化標本における接空間がクリロフ部分空間を成すならば、その分母化データによるCGは、接空間におけるデータの整合性更新を確実に維持する。
提案手法は,従来の最先端手法よりも80倍以上高速な推論時間を実現する。
論文 参考訳(メタデータ) (2023-03-10T07:42:49Z) - Non-Gradient Manifold Neural Network [79.44066256794187]
ディープニューラルネットワーク(DNN)は通常、勾配降下による最適化に数千のイテレーションを要します。
非次最適化に基づく新しい多様体ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-15T06:39:13Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z) - MSE-Optimal Neural Network Initialization via Layer Fusion [68.72356718879428]
ディープニューラルネットワークは、さまざまな分類と推論タスクに対して最先端のパフォーマンスを達成する。
グラデーションと非進化性の組み合わせは、学習を新しい問題の影響を受けやすいものにする。
確率変数を用いて学習した深層ネットワークの近傍層を融合する手法を提案する。
論文 参考訳(メタデータ) (2020-01-28T18:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。