論文の概要: PC-SRGAN: Physically Consistent Super-Resolution Generative Adversarial Network for General Transient Simulations
- arxiv url: http://arxiv.org/abs/2505.06502v1
- Date: Sat, 10 May 2025 04:05:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:48.871477
- Title: PC-SRGAN: Physically Consistent Super-Resolution Generative Adversarial Network for General Transient Simulations
- Title(参考訳): PC-SRGAN:一般過渡シミュレーションのための物理的に一貫性のある超解像生成対向ネットワーク
- Authors: Md Rakibul Hasan, Pouria Behnoudfar, Dan MacKinlay, Thomas Poulet,
- Abstract要約: 機械学習はスーパーレゾリューション(SR)に革命をもたらした
しかし、生成した画像は物理的意味を欠くことが多く、科学的な応用に欠かせないものである。
我々のアプローチであるPC-SRGANは、解釈可能なシミュレーションのための物理的整合性を確保しながら、画像の解像度を向上させる。
- 参考スコア(独自算出の注目度): 0.4218593777811082
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine Learning, particularly Generative Adversarial Networks (GANs), has revolutionised Super Resolution (SR). However, generated images often lack physical meaningfulness, which is essential for scientific applications. Our approach, PC-SRGAN, enhances image resolution while ensuring physical consistency for interpretable simulations. PC-SRGAN significantly improves both the Peak Signal-to-Noise Ratio and the Structural Similarity Index Measure compared to conventional methods, even with limited training data (e.g., only 13% of training data required for SRGAN). Beyond SR, PC-SRGAN augments physically meaningful machine learning, incorporating numerically justified time integrators and advanced quality metrics. These advancements promise reliable and causal machine-learning models in scientific domains. A significant advantage of PC-SRGAN over conventional SR techniques is its physical consistency, which makes it a viable surrogate model for time-dependent problems. PC-SRGAN advances scientific machine learning, offering improved accuracy and efficiency for image processing, enhanced process understanding, and broader applications to scientific research. The source codes and data will be made publicly available at https://github.com/hasan-rakibul/PC-SRGAN upon acceptance of this paper.
- Abstract(参考訳): 機械学習、特にGAN(Generative Adversarial Networks)は、スーパーレゾリューション(SR)に革命をもたらした。
しかし、生成した画像は物理的意味を欠くことが多く、科学的な応用に不可欠である。
我々のアプローチであるPC-SRGANは、解釈可能なシミュレーションのための物理的整合性を確保しながら、画像の解像度を向上させる。
PC-SRGANは、従来の訓練データ(例えば、SRGANに必要なトレーニングデータのわずか13%)と比較して、ピーク信号対雑音比と構造類似度指標の両方を著しく改善する。
SR以外にも、PC-SRGANは物理的に意味のある機械学習を強化し、数値的に正当化された時間積分器と高度な品質メトリクスを取り入れている。
これらの進歩は、科学的領域における信頼性と因果的機械学習モデルを約束する。
PC-SRGANの従来のSR技術に対する大きな利点は、その物理的整合性であり、時間依存問題に対するサロゲートモデルとして実現可能である。
PC-SRGANは科学機械学習を進歩させ、画像処理の精度と効率の向上、プロセス理解の強化、科学研究への幅広い応用を提供する。
ソースコードとデータは、この記事の受理後、https://github.com/hasan-rakibul/PC-SRGANで公開される。
関連論文リスト
- Event-Driven Implementation of a Physical Reservoir Computing Framework for superficial EMG-based Gesture Recognition [2.222098162797332]
本稿では,表面筋電図(SEMG)データをイベント駆動方式で抽出することで,ジェスチャー認識のための新しいニューロモーフィックな実装手法を提案する。
このネットワークは、スパイキングニューラルネットワーク(SNN)の領域内で、回転ニューロン貯水池(Rotating Neuron Reservoir, RNR)と呼ばれる単純な構造化およびハードウェアフレンドリな物理貯留層コンピューティングフレームワークを実装して設計された。
提案システムはオープンアクセス型大規模sEMGデータベースで検証され,平均分類精度は74.6%,80.3%であった。
論文 参考訳(メタデータ) (2025-03-10T17:18:14Z) - Frequency-Assisted Mamba for Remote Sensing Image Super-Resolution [49.902047563260496]
我々は、リモートセンシング画像(RSI)の超高解像度化のために、視覚状態空間モデル(Mamba)を統合するための最初の試みを開発した。
より優れたSR再構築を実現するため,FMSRと呼ばれる周波数支援型Mambaフレームワークを考案した。
我々のFMSRは、周波数選択モジュール(FSM)、ビジョン状態空間モジュール(VSSM)、ハイブリッドゲートモジュール(HGM)を備えた多層融合アーキテクチャを備えている。
論文 参考訳(メタデータ) (2024-05-08T11:09:24Z) - Random resistive memory-based deep extreme point learning machine for
unified visual processing [67.51600474104171]
ハードウェア・ソフトウェア共同設計型, ランダム抵抗型メモリベース深部極点学習マシン(DEPLM)を提案する。
我々の共同設計システムは,従来のシステムと比較して,エネルギー効率の大幅な向上とトレーニングコストの削減を実現している。
論文 参考訳(メタデータ) (2023-12-14T09:46:16Z) - Creating Realistic Anterior Segment Optical Coherence Tomography Images
using Generative Adversarial Networks [0.0]
Generative Adversarial Network (GAN) は、高解像度でリアルな前部セグメント光コヒーレンス・トモグラフィ(AS-OCT)画像の作成を目的としている。
我々は,142,628 AS- OCT Bスキャンを用いて,スタイルとウェーブレットをベースとしたGANを訓練した。
論文 参考訳(メタデータ) (2023-06-24T20:48:00Z) - Generative Adversarial Super-Resolution at the Edge with Knowledge
Distillation [1.3764085113103222]
シングルイメージのスーパーソリューションは、信頼できるビジュアルストリームが必要な環境でのロボットタスクをサポートすることができる。
我々は,EdgeSRGANと呼ばれるリアルタイム超解法のための効率的な生成逆ネットワークモデルを提案する。
論文 参考訳(メタデータ) (2022-09-07T10:58:41Z) - GSDA: Generative Adversarial Network-based Semi-Supervised Data
Augmentation for Ultrasound Image Classification [8.554511144730387]
医用超音波(英語: Medical Ultrasound、略称:US)は、臨床において最も広く用いられる画像のモダリティの一つである。
ディープラーニング(DL)モデルは、先進的な米国の画像分析ツールとして機能するが、大規模なデータセットの不足により、その性能は大幅に制限される。
我々はGANに基づく半教師付きデータ拡張法を開発した。
論文 参考訳(メタデータ) (2022-03-11T16:52:14Z) - Transformer Networks for Data Augmentation of Human Physical Activity
Recognition [61.303828551910634]
Recurrent Generative Adrial Networks (RGAN)のような最先端技術モデルは、リアルな合成データを生成するために使用される。
本稿では,データにグローバルな注意を払っているトランスフォーマーベースの生成敵ネットワークを,PAMAP2とリアルワールドヒューマンアクティビティ認識データセットでRGANと比較する。
論文 参考訳(メタデータ) (2021-09-02T16:47:29Z) - Learning Frequency-aware Dynamic Network for Efficient Super-Resolution [56.98668484450857]
本稿では、離散コサイン変換(dct)領域の係数に応じて入力を複数の部分に分割する新しい周波数認識動的ネットワークについて検討する。
実際、高周波部は高価な操作で処理され、低周波部は計算負荷を軽減するために安価な操作が割り当てられる。
ベンチマークSISRモデルおよびデータセット上での実験は、周波数認識動的ネットワークが様々なSISRニューラルネットワークに使用できることを示している。
論文 参考訳(メタデータ) (2021-03-15T12:54:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。