論文の概要: Neural Architecture Search for Inversion
- arxiv url: http://arxiv.org/abs/2201.01772v1
- Date: Wed, 5 Jan 2022 17:45:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-07 15:16:42.118383
- Title: Neural Architecture Search for Inversion
- Title(参考訳): インバージョンのためのニューラルアーキテクチャ探索
- Authors: Cheng Zhan, Licheng Zhang, Xin Zhao, Chang-Chun Lee, Shujiao Huang
- Abstract要約: ピクセル2ピクセル比較は、画像構造を特徴づける最善の選択肢ではないかもしれない。
もうひとつの次元は、さらに大きな画像、自動機械学習(AutoML)のサブセットである、より適切なニューラルネットワークを探すことだ。
ここでは、インバージョンのためのアーキテクチャ検索結果を示します。
- 参考スコア(独自算出の注目度): 14.084728416927652
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Over the year, people have been using deep learning to tackle inversion
problems, and we see the framework has been applied to build relationship
between recording wavefield and velocity (Yang et al., 2016). Here we will
extend the work from 2 perspectives, one is deriving a more appropriate loss
function, as we now, pixel-2-pixel comparison might not be the best choice to
characterize image structure, and we will elaborate on how to construct cost
function to capture high level feature to enhance the model performance.
Another dimension is searching for the more appropriate neural architecture,
which is a subset of an even bigger picture, the automatic machine learning, or
AutoML. There are several famous networks, U-net, ResNet (He et al., 2016) and
DenseNet (Huang et al., 2017), and they achieve phenomenal results for certain
problems, yet it's hard to argue they are the best for inversion problems
without thoroughly searching within certain space. Here we will be showing our
architecture search results for inversion.
- Abstract(参考訳): 長年にわたり、ディープラーニングを使って反転問題に取り組んできた。このフレームワークは、記録ウェーブフィールドとvelocity(yang et al., 2016)の関係を構築するために適用されてきた。
ここでは、画像構造を特徴付けるのにピクセル2ピクセル比較が最適ではないため、より適切な損失関数を導出する2つの視点から作業を拡張するとともに、高次特徴をキャプチャしてモデル性能を高めるためにコスト関数を構築する方法について詳しく述べる。
もう1つの次元は、さらに大きな画像のサブセットであるより適切なニューラルネットワーク(automatic machine learning、automl)の探索である。
U-net、ResNet (He et al., 2016)、DenseNet (Huang et al., 2017) といった有名なネットワークがあり、特定の問題に対して驚くべき結果をもたらすが、特定の空間内で徹底的に検索することなく、倒立問題に最適であると主張するのは難しい。
ここでは、inversionのアーキテクチャ検索結果を示します。
関連論文リスト
- Real-Time Image Segmentation via Hybrid Convolutional-Transformer Architecture Search [49.81353382211113]
マルチヘッド自己認識を高分解能表現CNNに効率的に組み込むという課題に対処する。
本稿では,高解像度機能の利点をフル活用したマルチターゲットマルチブランチ・スーパーネット手法を提案する。
本稿では,Hybrid Convolutional-Transformer Architecture Search (HyCTAS)法を用いて,軽量畳み込み層とメモリ効率のよい自己保持層を最適に組み合わせたモデルを提案する。
論文 参考訳(メタデータ) (2024-03-15T15:47:54Z) - Pruning-as-Search: Efficient Neural Architecture Search via Channel
Pruning and Structural Reparameterization [50.50023451369742]
プルーニング・アズ・サーチ(Pruning-as-Search、PaS)は、必要なサブネットワークを自動的に効率的に検索するエンドツーエンドのプルーニング手法である。
提案したアーキテクチャは,ImageNet-1000分類タスクにおいて,1.0%$ Top-1精度で先行技術より優れていた。
論文 参考訳(メタデータ) (2022-06-02T17:58:54Z) - Efficient Person Search: An Anchor-Free Approach [86.45858994806471]
パーソンサーチは、クエリーの人物を、リアルで切り刻まれていない画像から、同時にローカライズし、識別することを目的としている。
この目標を達成するために、最先端モデルは通常、Faster R-CNNのような2段階検出器にre-idブランチを追加する。
本研究では,この課題に対処するためのアンカーフリーな手法を提案する。
論文 参考訳(メタデータ) (2021-09-01T07:01:33Z) - Growing an architecture for a neural network [0.0]
本稿では,新しいアーキテクチャ検索アルゴリズムを提案する。
このアルゴリズムはプルーニング接続とニューロンの追加を交互に行い、層状アーキテクチャのみに制限されない。
論文 参考訳(メタデータ) (2021-08-04T18:17:22Z) - Wise-SrNet: A Novel Architecture for Enhancing Image Classification by
Learning Spatial Resolution of Feature Maps [0.5892638927736115]
畳み込みニューラルネットワークの進歩による大きな課題の1つは、抽出した特徴マップを最終分類層に接続する方法である。
本稿では,GAP層をWise-SrNetと呼ばれる新しいアーキテクチャに置き換えることで,この問題に対処する。
奥行きの畳み込みのアイデアにインスパイアされ、計算コストを増大させることなく空間分解能を処理するように設計されている。
論文 参考訳(メタデータ) (2021-04-26T00:37:11Z) - DeepI2P: Image-to-Point Cloud Registration via Deep Classification [71.3121124994105]
DeepI2Pは、イメージとポイントクラウドの間のクロスモダリティ登録のための新しいアプローチです。
本手法は,カメラとライダーの座標フレーム間の相対的剛性変換を推定する。
登録問題を分類および逆カメラ投影最適化問題に変換することで難易度を回避する。
論文 参考訳(メタデータ) (2021-04-08T04:27:32Z) - KiU-Net: Overcomplete Convolutional Architectures for Biomedical Image
and Volumetric Segmentation [71.79090083883403]
トラディショナル・エンコーダ・デコーダに基づく手法は, より小さな構造を検出でき, 境界領域を正確に分割できない。
本稿では,(1)入力の細部と正確なエッジを捉えることを学ぶ完全畳み込みネットワークKite-Netと,(2)高レベルの特徴を学習するU-Netの2つの枝を持つKiU-Netを提案する。
提案手法は,より少ないパラメータとより高速な収束の利点により,最近のすべての手法と比較して性能が向上する。
論文 参考訳(メタデータ) (2020-10-04T19:23:33Z) - Multi-scale Attention U-Net (MsAUNet): A Modified U-Net Architecture for
Scene Segmentation [1.713291434132985]
画像からコンテキスト情報を用いたシーンセグメンテーションのためのマルチスケールアテンションネットワークを提案する。
このネットワークは、局所的な特徴をグローバルな特徴にマップし、精度を向上し、識別画像領域を強調する。
我々はPascalVOC2012とADE20kという2つの標準データセットでモデルを評価した。
論文 参考訳(メタデータ) (2020-09-15T08:03:41Z) - Are Deep Neural Architectures Losing Information? Invertibility Is
Indispensable [21.743445133008848]
より深いニューラルネットワークアーキテクチャは、アーキテクチャが可逆である場合に限り、与えられたデータに関する最大詳細を保存可能であることを示す。
Invertible Restoring Autoencoder (IRAE) ネットワークの利点を、3つの摂動画像復元タスクの競合モデルと比較することにより検証する。
論文 参考訳(メタデータ) (2020-09-07T15:39:24Z) - NAS-DIP: Learning Deep Image Prior with Neural Architecture Search [65.79109790446257]
近年の研究では、深部畳み込みニューラルネットワークの構造が、以前に構造化された画像として利用できることが示されている。
我々は,より強い画像の先行を捉えるニューラルネットワークの探索を提案する。
既存のニューラルネットワーク探索アルゴリズムを利用して,改良されたネットワークを探索する。
論文 参考訳(メタデータ) (2020-08-26T17:59:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。