論文の概要: Glimpse: Generalized Locality for Scalable and Robust CT
- arxiv url: http://arxiv.org/abs/2401.00816v3
- Date: Thu, 12 Jun 2025 08:06:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 15:37:21.968868
- Title: Glimpse: Generalized Locality for Scalable and Robust CT
- Title(参考訳): Glimpse: スケーラブルおよびロバストCTのための一般化された局所性
- Authors: AmirEhsan Khorashadizadeh, Valentin Debarnot, Tianlin Liu, Ivan Dokmanić,
- Abstract要約: 我々はGlimpseを紹介した。Glimpseは計算トモグラフィーのための局所座標に基づくニューラルネットワークで、ピクセルの近傍に付随する測定のみを処理することによって画素値を再構成する。
Glimpseは、OODサンプル上で成功したCNNよりも大幅に優れ、分散テストデータにおいて同等またはより良いパフォーマンスを実現している。
Glimpseは完全に微分可能で、任意のディープラーニングアーキテクチャでプラグイン・アンド・プレイで使用することができる。
- 参考スコア(独自算出の注目度): 10.657105348034753
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Deep learning has become the state-of-the-art approach to medical tomographic imaging. A common approach is to feed the result of a simple inversion, for example the backprojection, to a multiscale convolutional neural network (CNN) which computes the final reconstruction. Despite good results on in-distribution test data, this often results in overfitting certain large-scale structures and poor generalization on out-of-distribution (OOD) samples. Moreover, the memory and computational complexity of multiscale CNNs scale unfavorably with image resolution, making them impractical for application at realistic clinical resolutions. In this paper, we introduce Glimpse, a local coordinate-based neural network for computed tomography which reconstructs a pixel value by processing only the measurements associated with the neighborhood of the pixel. Glimpse significantly outperforms successful CNNs on OOD samples, while achieving comparable or better performance on in-distribution test data and maintaining a memory footprint almost independent of image resolution; 5GB memory suffices to train on 1024x1024 images which is orders of magnitude less than CNNs. Glimpse is fully differentiable and can be used plug-and-play in arbitrary deep learning architectures, enabling feats such as correcting miscalibrated projection orientations. Our implementation and Google Colab demo can be accessed at https://github.com/swing-research/Glimpse.
- Abstract(参考訳): 深層学習は医用断層撮影における最先端のアプローチとなっている。
一般的なアプローチは、単純な逆転、例えばバックプロジェクションの結果を、最終的な再構築を計算するマルチスケール畳み込みニューラルネットワーク(CNN)に供給することである。
分配試験データに良い結果が得られたにもかかわらず、これは大規模な構造に過度に適合し、分布外サンプル(OOD)の一般化が不十分な結果となることが多い。
さらに、マルチスケールCNNのメモリと計算の複雑さは、画像解像度と不相応にスケールし、現実的な臨床的解決に応用するには実用的でない。
本稿では,Glimpseについて述べる。Glimpseは局所座標に基づく局所的トモグラフィー用ニューラルネットワークで,画素近傍の計測値のみを処理して画素値を再構成する。
GlimpseはOODサンプル上で成功したCNNよりも優れており、分散テストデータに匹敵するあるいは優れたパフォーマンスを実現し、画像解像度にほぼ依存しないメモリフットプリントを維持している。
Glimpseは完全に微分可能で、任意のディープラーニングアーキテクチャでプラグイン・アンド・プレイで使用することができる。
私たちの実装とGoogle Colabのデモはhttps://github.com/swing-research/Glimpse.comからアクセスできます。
関連論文リスト
- LoFi: Neural Local Fields for Scalable Image Reconstruction [11.544632963705858]
LoFi(Local Field)と呼ばれる逆問題の画像化のための座標ベースのフレームワークを提案する。
LoFiは、各座標における局所情報を多層パーセプトロン(MLP)によって別々に処理し、その特定の座標でオブジェクトを復元する。
LoFiは、画像解像度とほぼ独立にメモリ使用量を持つアウト・オブ・ディストリビューションデータへの優れた一般化を実現する。
論文 参考訳(メタデータ) (2024-11-07T18:58:57Z) - A Unified Model for Compressed Sensing MRI Across Undersampling Patterns [69.19631302047569]
ディープニューラルネットワークは、アンダーサンプル計測から高忠実度画像を再構成する大きな可能性を示している。
我々のモデルは、離散化に依存しないアーキテクチャであるニューラル演算子に基づいている。
我々の推論速度は拡散法よりも1,400倍速い。
論文 参考訳(メタデータ) (2024-10-05T20:03:57Z) - Exploring Multi-view Pixel Contrast for General and Robust Image Forgery Localization [4.8454936010479335]
本稿では,画像フォージェリーローカライゼーションのための多視点Pixel-wise Contrastive Algorithm (MPC)を提案する。
具体的には、まず、教師付きコントラスト損失を伴うバックボーンネットワークを事前訓練する。
次に、クロスエントロピー損失を用いてローカライゼーションヘッドを微調整し、ピクセルローカライザを改良する。
論文 参考訳(メタデータ) (2024-06-19T13:51:52Z) - Parameter-Inverted Image Pyramid Networks [49.35689698870247]
Inverted Image Pyramid Networks (PIIP) と呼ばれる新しいネットワークアーキテクチャを提案する。
私たちの中核となる考え方は、パラメータサイズの異なるモデルを使用して、画像ピラミッドの解像度の異なるレベルを処理することです。
PIIPは、オブジェクト検出、セグメンテーション、画像分類などのタスクにおいて優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-06-06T17:59:10Z) - Efficient Visual State Space Model for Image Deblurring [83.57239834238035]
畳み込みニューラルネットワーク(CNN)とビジョントランスフォーマー(ViT)は、画像復元において優れた性能を発揮している。
本稿では,画像のデブロアに対する簡易かつ効果的な視覚状態空間モデル(EVSSM)を提案する。
論文 参考訳(メタデータ) (2024-05-23T09:13:36Z) - Pixel-Inconsistency Modeling for Image Manipulation Localization [59.968362815126326]
デジタル画像法医学は、画像認証と操作のローカライゼーションにおいて重要な役割を果たす。
本稿では,画素不整合アーチファクトの解析を通じて,一般化されたロバストな操作ローカライゼーションモデルを提案する。
実験により,本手法は固有の画素不整合偽指紋を抽出することに成功した。
論文 参考訳(メタデータ) (2023-09-30T02:54:51Z) - Memory Efficient Patch-based Training for INR-based GANs [13.19626131847784]
既存のアプローチの訓練には、画像解像度に比例した計算コストが要求される。
我々は、INRベースのGANを柔軟な計算コストでトレーニングできる、新しいスケーラブルなアプローチであるマルチステージパッチベースのトレーニングを提案する。
具体的には、パッチを用いて画像の局所的な詳細を学習し、グローバルな構造情報を学習することを可能にする。
論文 参考訳(メタデータ) (2022-07-04T13:28:53Z) - Class Balanced PixelNet for Neurological Image Segmentation [20.56747443955369]
画素レベルの畳み込みニューラルネットワーク(CNN)を用いた自動脳腫瘍分割法(PixelNetなど)を提案する。
提案モデルは脳腫瘍と虚血性脳梗塞のセグメンテーションデータセットにおいて有望な結果を得た。
論文 参考訳(メタデータ) (2022-04-23T10:57:54Z) - ACORN: Adaptive Coordinate Networks for Neural Scene Representation [40.04760307540698]
現在の神経表現は、数十万以上のポリゴンを持つメガピクセルまたは3Dシーン以上の解像度で画像を正確に表現できません。
トレーニングや推論中にリソースを適応的に割り当てる新しいハイブリッド暗黙的ネットワークアーキテクチャとトレーニング戦略を紹介します。
ギガピクセル画像を40dB近いピーク信号対雑音比に収まる最初の実験を実証します。
論文 参考訳(メタデータ) (2021-05-06T16:21:38Z) - PCLs: Geometry-aware Neural Reconstruction of 3D Pose with Perspective
Crop Layers [111.55817466296402]
我々は、カメラ幾何学に基づく関心領域の視点作物であるパースペクティブ・クロップ・レイヤ(PCL)を紹介する。
PCLは、エンドツーエンドのトレーニングと基礎となるニューラルネットワークのパラメータ数を残しながら、位置依存的な視点効果を決定論的に除去する。
PCLは、既存の3D再構成ネットワークを幾何学的に認識することで、容易に精度を向上させる手段を提供する。
論文 参考訳(メタデータ) (2020-11-27T08:48:43Z) - Locally Masked Convolution for Autoregressive Models [107.4635841204146]
LMConvは標準的な2Dコンボリューションの簡単な修正であり、任意のマスクを画像の各位置の重みに適用することができる。
我々は,パラメータを共有するが生成順序が異なる分布推定器のアンサンブルを学習し,全画像密度推定の性能を向上させる。
論文 参考訳(メタデータ) (2020-06-22T17:59:07Z) - BP-DIP: A Backprojection based Deep Image Prior [49.375539602228415]
画像復元手法として, (i)Deep Image Prior (DIP) と (ii) バックプロジェクション (BP) の2つの手法を提案する。
提案手法はBP-DIP(BP-DIP)と呼ばれ,高いPSNR値とより優れた推論実行時間を持つ通常のDIPよりも優れた性能を示す。
論文 参考訳(メタデータ) (2020-03-11T17:09:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。