論文の概要: Towards Globally Predictable k-Space Interpolation: A White-box Transformer Approach
- arxiv url: http://arxiv.org/abs/2508.04051v1
- Date: Wed, 06 Aug 2025 03:24:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-07 20:09:22.529068
- Title: Towards Globally Predictable k-Space Interpolation: A White-box Transformer Approach
- Title(参考訳): 世界予測可能なk空間補間に向けて:White-box Transformerアプローチ
- Authors: Chen Luo, Qiyu Jin, Taofeng Xie, Xuemei Wang, Huayu Wang, Congcong Liu, Liming Tang, Guoqing Chen, Zhuo-Xu Cui, Dong Liang,
- Abstract要約: 我々は,k空間に対するGPI(Globally Predictable Interpolation)に基づくWhite-box TransformerフレームワークであるGPI-WTを提案する。
実験結果から,提案手法は,k空間の精度において高い解釈性を提供しながら,最先端の手法よりも優れていることが示された。
- 参考スコア(独自算出の注目度): 9.242448133816037
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Interpolating missing data in k-space is essential for accelerating imaging. However, existing methods, including convolutional neural network-based deep learning, primarily exploit local predictability while overlooking the inherent global dependencies in k-space. Recently, Transformers have demonstrated remarkable success in natural language processing and image analysis due to their ability to capture long-range dependencies. This inspires the use of Transformers for k-space interpolation to better exploit its global structure. However, their lack of interpretability raises concerns regarding the reliability of interpolated data. To address this limitation, we propose GPI-WT, a white-box Transformer framework based on Globally Predictable Interpolation (GPI) for k-space. Specifically, we formulate GPI from the perspective of annihilation as a novel k-space structured low-rank (SLR) model. The global annihilation filters in the SLR model are treated as learnable parameters, and the subgradients of the SLR model naturally induce a learnable attention mechanism. By unfolding the subgradient-based optimization algorithm of SLR into a cascaded network, we construct the first white-box Transformer specifically designed for accelerated MRI. Experimental results demonstrate that the proposed method significantly outperforms state-of-the-art approaches in k-space interpolation accuracy while providing superior interpretability.
- Abstract(参考訳): k空間における欠落したデータの補間は、画像の高速化に不可欠である。
しかし、畳み込みニューラルネットワークに基づくディープラーニングを含む既存の手法は、k空間に固有のグローバルな依存関係を見下ろしながら、主に局所的な予測可能性を活用する。
近年、トランスフォーマーは、自然言語処理と画像解析において、長距離依存関係をキャプチャする能力により、顕著な成功を収めている。
このことがトランスフォーマーをk空間補間に利用し、そのグローバル構造をよりよく活用するきっかけとなった。
しかし、それらの解釈可能性の欠如は、補間データの信頼性に関する懸念を引き起こす。
この制限に対処するため、k-space のための GPI (Globally Predictable Interpolation) に基づく、White-box Transformer フレームワーク GPI-WT を提案する。
具体的には,新しいK空間構造型低ランク(SLR)モデルとして,消滅の観点からGPIを定式化する。
SLRモデルのグローバル消滅フィルタは学習可能なパラメータとして扱われ、SLRモデルの下位は学習可能な注意機構を自然に引き起こす。
我々は,SLRの下位最適化アルゴリズムをカスケードネットワークに展開することにより,MRIの高速化に特化して設計された最初のホワイトボックス変換器を構築する。
実験により, 提案手法は, k空間補間精度において, 高い解釈性を提供しながら, 最先端の手法よりも優れていることを示した。
関連論文リスト
- GFocal: A Global-Focal Neural Operator for Solving PDEs on Arbitrary Geometries [5.323843026995587]
変圧器に基づくニューラル作用素は偏微分方程式に対する有望な代理解法として現れる。
本稿では,グローバルおよびローカルな特徴学習と融合を同時に実施するGFocalを提案する。
実験の結果、GFocalは6つのベンチマークのうち5つのベンチマークで平均15.2%の上昇率で最先端のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2025-08-06T14:02:39Z) - Stochastic Variational Propagation: Local, Scalable and Efficient Alternative to Backpropagation [2.1838661321884443]
バックプロパゲーション(BP)はディープラーニングの基盤であるが、グローバルな勾配同期に依存しているためスケーラビリティが制限される。
本稿では、階層的変分推論としてトレーニングを再構成するスケーラブルな代替手段である変分伝搬(SVP)を提案する。
論文 参考訳(メタデータ) (2025-05-08T12:32:29Z) - Cross-Scan Mamba with Masked Training for Robust Spectral Imaging [51.557804095896174]
本研究では,空間スペクトルSSMを用いたクロススキャンマンバ(CS-Mamba)を提案する。
実験の結果, CS-Mambaは最先端の性能を達成し, マスク付きトレーニング手法によりスムーズな特徴を再構築し, 視覚的品質を向上させることができた。
論文 参考訳(メタデータ) (2024-08-01T15:14:10Z) - Dynamic Kernel-Based Adaptive Spatial Aggregation for Learned Image
Compression [63.56922682378755]
本稿では,空間アグリゲーション機能の拡張に焦点をあて,動的カーネルベースの変換符号化を提案する。
提案したアダプティブアグリゲーションはカーネルオフセットを生成し、コンテント条件付き範囲の有効な情報をキャプチャして変換を支援する。
実験により,本手法は,最先端の学習手法と比較して,3つのベンチマークにおいて高い速度歪み性能が得られることを示した。
論文 参考訳(メタデータ) (2023-08-17T01:34:51Z) - Global-to-Local Modeling for Video-based 3D Human Pose and Shape
Estimation [53.04781510348416]
フレーム内精度とフレーム間スムーズさにより,映像に基づく3次元人間のポーズと形状推定を評価する。
エンドツーエンドフレームワークGLoT(Global-to-Local Transformer)における長期的・短期的相関のモデル化を構造的に分離することを提案する。
我々のGLoTは、一般的なベンチマーク(3DPW、MPI-INF-3DHP、Human3.6M)において、最も低いモデルパラメータを持つ従来の最先端の手法を上回る。
論文 参考訳(メタデータ) (2023-03-26T14:57:49Z) - Recursive Generalization Transformer for Image Super-Resolution [108.67898547357127]
本稿では,大域空間情報を捕捉し,高分解能画像に適した画像SRのための再帰一般化変換器(RGT)を提案する。
我々は,RG-SAと局所的自己意識を組み合わせることで,グローバルな文脈の活用を促進する。
我々のRGTは最近の最先端の手法よりも定量的に質的に優れている。
論文 参考訳(メタデータ) (2023-03-11T10:44:44Z) - Large-scale Global Low-rank Optimization for Computational Compressed
Imaging [8.594666859332124]
本稿では,グローバルな自己相似性と高効率な大規模再構成を実現するグローバル低ランク(GLR)最適化手法を提案する。
深層学習における自己認識機構に触発されたGLRは、従来の一様選択の代わりに特徴検出によって画像パッチを抽出する。
時間・周波数・スペクトル次元におけるGLRの有効性を実験的に実証した。
論文 参考訳(メタデータ) (2023-01-08T14:12:51Z) - CSformer: Bridging Convolution and Transformer for Compressive Sensing [65.22377493627687]
本稿では,CNNからの詳細な空間情報を活用するためのハイブリッドフレームワークと,表現学習の強化を目的としたトランスフォーマーが提供するグローバルコンテキストを統合することを提案する。
提案手法は、適応的なサンプリングとリカバリからなるエンドツーエンドの圧縮画像センシング手法である。
実験により, 圧縮センシングにおける専用トランスアーキテクチャの有効性が示された。
論文 参考訳(メタデータ) (2021-12-31T04:37:11Z) - Pushing the Envelope of Rotation Averaging for Visual SLAM [69.7375052440794]
視覚SLAMシステムのための新しい最適化バックボーンを提案する。
従来の単分子SLAMシステムの精度, 効率, 堅牢性を向上させるために, 平均化を活用している。
我々のアプローチは、公開ベンチマークの最先端技術に対して、同等の精度で最大10倍高速に表示することができる。
論文 参考訳(メタデータ) (2020-11-02T18:02:26Z) - DessiLBI: Exploring Structural Sparsity of Deep Networks via
Differential Inclusion Paths [45.947140164621096]
逆スケール空間の差分包摂に基づく新しい手法を提案する。
DessiLBIが早期に「優勝チケット」を発表することを示す。
論文 参考訳(メタデータ) (2020-07-04T04:40:16Z) - Learning Context-Based Non-local Entropy Modeling for Image Compression [140.64888994506313]
本稿では,文脈内でのグローバルな類似性を利用して,文脈モデリングのための非局所的操作を提案する。
エントロピーモデルはさらに、結合速度歪み最適化における速度損失として採用されている。
低歪みモデルのトレーニングに変換の幅が不可欠であることを考えると、最終的に変換のU-Netブロックを生成して、管理可能なメモリ消費と時間複雑性で幅を拡大する。
論文 参考訳(メタデータ) (2020-05-10T13:28:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。