論文の概要: Filtering In Implicit Neural Networks
- arxiv url: http://arxiv.org/abs/2201.13013v1
- Date: Mon, 31 Jan 2022 06:11:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-01 17:01:22.308837
- Title: Filtering In Implicit Neural Networks
- Title(参考訳): ニューラルネットワークにおけるフィルタリング
- Authors: Yixin Zhuang
- Abstract要約: 入射ニューラルネットワーク(INN)は、データ表現の学習に非常に効果的である。
ほとんどのIGNは、データが多くの詳細または広範囲の周波数を持つ場合、結果に過度に滑らかなパッチや明らかなノイズのあるアーティファクトを生成します。
人工物をフィルタリングしながらデータフィッティングを行うために,新しいフレームワークFINNを提案する。
- 参考スコア(独自算出の注目度): 2.741266294612776
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Implicit neural networks (INNs) are very effective for learning data
representation. However, most INNs inevitably generate over-smoothed patches or
obvious noisy artifacts in the results when the data has many scales of details
or a wide range of frequencies, leading to significant performance reduction.
Adapting the result containing both noise and over-smoothed regions usually
suffers from either over smoothing or noisy issues. To overcome this challenge,
we propose a new framework, coined FINN, that integrated a \emph{filtering}
module to the \emph{implicit neural network} to perform data fitting while
filtering artifacts. The filtering module has a smoothing operator that acts on
the intermediate results of the network and a recovering operator that brings
distinct details from the input back to the regions overly smoothed. The
proposed method significantly alleviates over smoothing or noisy issues. We
demonstrate the advantage of the FINN on the image regression task, considering
both real and synthetic images, and showcases significant improvement on both
quantitative and qualitative results compared to state-of-the-art methods.
Moreover, FINN yields better performance in both convergence speed and network
stability. Source code is available at https://github.com/yixin26/FINN.
- Abstract(参考訳): 入射ニューラルネットワーク(INN)は、データ表現の学習に非常に効果的である。
しかし、ほとんどのIGNは、データが多くの詳細または広範囲の周波数を持つ場合、必然的に過剰なスムースなパッチや明らかなノイズのある成果物を生成し、性能が大幅に低下する。
ノイズと過密領域の両方を含む結果に適応することは、通常、スムーズな問題またはノイズの多い問題に悩まされる。
この課題を克服するために、我々は、人工物をフィルタリングしながらデータフィッティングを行うために、 \emph{filtering} モジュールを \emph{implicit Neural Network} に統合した新しいフレームワーク FINN を提案する。
フィルタリングモジュールは、ネットワークの中間結果に作用する滑らかな演算子と、入力から異なる詳細を過度に滑らか化した領域に戻す回復演算子とを有する。
提案手法は, 平滑化や騒音問題を著しく軽減する。
実画像と合成画像の両方を考慮した画像回帰作業におけるFINNの利点を実証し,最新手法と比較して定量的および定性的な結果に有意な改善が認められた。
さらに、FINNは収束速度とネットワーク安定性の両方で性能が向上する。
ソースコードはhttps://github.com/yixin26/finn。
関連論文リスト
- BANF: Band-limited Neural Fields for Levels of Detail Reconstruction [28.95113960996025]
簡単な修正により、低域通過フィルタのニューラルネットワークが得られることを示すとともに、これをどのように利用して信号全体の周波数分解を得ることができるかを示す。
本研究では,提案手法の妥当性について検討し,粗い表現を効果的に計算する方法を示す。
論文 参考訳(メタデータ) (2024-04-19T17:39:50Z) - GLFNET: Global-Local (frequency) Filter Networks for efficient medical
image segmentation [18.314093733807972]
医用画像分割のためのGlobal-Local Filter Network (GLFNet) と呼ばれるトランスフォーマースタイルのアーキテクチャを提案する。
モデル効率を最適化するために,自己認識機構をグローバルローカルフィルタブロックの組み合わせに置き換える。
GLFNetを3つのベンチマークデータセットでテストし、GFLOP操作の約2倍の効率を保ちながら、最先端のパフォーマンスを実現した。
論文 参考訳(メタデータ) (2024-03-01T09:35:03Z) - Neural Operators with Localized Integral and Differential Kernels [77.76991758980003]
本稿では,2つのフレームワークで局所的な特徴をキャプチャできる演算子学習の原理的アプローチを提案する。
我々はCNNのカーネル値の適切なスケーリングの下で微分演算子を得ることを示す。
局所積分演算子を得るには、離散連続的畳み込みに基づくカーネルの適切な基底表現を利用する。
論文 参考訳(メタデータ) (2024-02-26T18:59:31Z) - Efficient Federated Learning via Local Adaptive Amended Optimizer with
Linear Speedup [90.26270347459915]
そこで我々は,グローバル・アダプティカル・アダプティカル・アダプティカル・アダプティカル・アダプティカル・アルゴリズムを提案する。
textitLADAは通信ラウンドを大幅に削減し、複数のベースラインよりも高い精度を実現する。
論文 参考訳(メタデータ) (2023-07-30T14:53:21Z) - Dynamic Regularized Sharpness Aware Minimization in Federated Learning: Approaching Global Consistency and Smooth Landscape [59.841889495864386]
フェデレートラーニング(FL)では、グローバルサーバの協調の下で、ローカルクライアントのクラスタがチェアリングされる。
クライアントは自身のオプティマに過度に適合する傾向にあり、グローバルな目標から非常に逸脱する。
tt Family FedSMOOは、グローバルな目的に対する局所的な最適性を保証するために動的正規化器を採用する。
理論解析により, tt Family FedSMOO は, 低境界一般化による高速$mathcalO (1/T)$収束率を達成することが示された。
論文 参考訳(メタデータ) (2023-05-19T10:47:44Z) - Learning Second Order Local Anomaly for General Face Forgery Detection [7.6896977871741985]
本稿では,CNNを用いた顔偽造検知器の一般化能力向上のための新しい手法を提案する。
具体的には,局所的な異常をマイニングするための2次局所異常(SOLA)学習モジュールを提案する。
また、実地と偽地の局所的特徴の識別を改善するための局所拡張モジュール(LEM)を提案する。
論文 参考訳(メタデータ) (2022-09-30T14:27:11Z) - LATITUDE: Robotic Global Localization with Truncated Dynamic Low-pass
Filter in City-scale NeRF [5.364698641882657]
都市規模ニューラルレージアンスフィールド(NeRF)における2段階位置決め機構について述べる。
位置認識の段階では、トレーニングされたNeRFから生成された画像を通して回帰器を訓練し、グローバルなローカライゼーションの初期値を提供する。
ポーズ最適化の段階では、タンジェント平面上でのポーズを直接最適化することにより、観測画像とレンダリング画像との間の残差を最小化する。
提案手法を合成・実世界の双方で評価し,大規模都市景観における高精度ナビゲーションの可能性を示す。
論文 参考訳(メタデータ) (2022-09-18T07:56:06Z) - Filter-enhanced MLP is All You Need for Sequential Recommendation [89.0974365344997]
オンラインプラットフォームでは、ログされたユーザの行動データはノイズを含まないことは避けられない。
周波数領域の雑音を減衰させる信号処理から,フィルタアルゴリズムのアイデアを借用する。
逐次レコメンデーションタスクのための学習可能なフィルタを備えたオールMLPモデルである textbfFMLP-Rec を提案する。
論文 参考訳(メタデータ) (2022-02-28T05:49:35Z) - Faster Non-Convex Federated Learning via Global and Local Momentum [57.52663209739171]
textttFedGLOMOは最初の(一階)FLtexttFedGLOMOアルゴリズムです。
クライアントとサーバ間の通信においても,我々のアルゴリズムは確実に最適である。
論文 参考訳(メタデータ) (2020-12-07T21:05:31Z) - Region-based Non-local Operation for Video Classification [11.746833714322154]
本稿では,地域別非局所的(RNL)操作を自己注意機構のファミリーとして提案する。
チャネルアテンションモジュールと提案したRNLを組み合わせることで,市販のCNNに組み込んだアテンションチェーンを設計し,エンドツーエンドのトレーニングを行う。
提案手法の実験結果は,他の注意機構よりも優れており,Something V1データセット上での最先端性能を実現している。
論文 参考訳(メタデータ) (2020-07-17T14:57:05Z) - Filter Grafting for Deep Neural Networks: Reason, Method, and
Cultivation [86.91324735966766]
フィルタは現代の畳み込みニューラルネットワーク(CNN)のキーコンポーネントである
本稿では,この目的を達成するためにフィルタグラフト(textbfMethod)を導入する。
我々は,フィルタの情報を測定するための新しい基準と,グラフトされた情報をネットワーク間でバランスをとるための適応重み付け戦略を開発する。
論文 参考訳(メタデータ) (2020-04-26T08:36:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。