論文の概要: U-RWKV: Lightweight medical image segmentation with direction-adaptive RWKV
- arxiv url: http://arxiv.org/abs/2507.11415v1
- Date: Tue, 15 Jul 2025 15:40:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-16 19:46:03.174403
- Title: U-RWKV: Lightweight medical image segmentation with direction-adaptive RWKV
- Title(参考訳): U-RWKV:方向適応型RWKVを用いた軽量医用画像分割
- Authors: Hongbo Ye, Fenghe Tang, Peiang Zhao, Zhen Huang, Dexin Zhao, Minghao Bian, S. Kevin Zhou,
- Abstract要約: 我々は,O(N)計算コストで効率的な長距離モデリングを行うための新しいフレームワークであるU-RWKVを提案する。
このフレームワークには、Direction-Adaptive RWKV ModuleとStage-Adaptive Squeeze-and-Excitation Moduleという2つの重要なイノベーションが導入されている。
U-RWKVは高い計算効率で最先端のセグメンテーション性能を実現する。
- 参考スコア(独自算出の注目度): 13.528706926224114
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Achieving equity in healthcare accessibility requires lightweight yet high-performance solutions for medical image segmentation, particularly in resource-limited settings. Existing methods like U-Net and its variants often suffer from limited global Effective Receptive Fields (ERFs), hindering their ability to capture long-range dependencies. To address this, we propose U-RWKV, a novel framework leveraging the Recurrent Weighted Key-Value(RWKV) architecture, which achieves efficient long-range modeling at O(N) computational cost. The framework introduces two key innovations: the Direction-Adaptive RWKV Module(DARM) and the Stage-Adaptive Squeeze-and-Excitation Module(SASE). DARM employs Dual-RWKV and QuadScan mechanisms to aggregate contextual cues across images, mitigating directional bias while preserving global context and maintaining high computational efficiency. SASE dynamically adapts its architecture to different feature extraction stages, balancing high-resolution detail preservation and semantic relationship capture. Experiments demonstrate that U-RWKV achieves state-of-the-art segmentation performance with high computational efficiency, offering a practical solution for democratizing advanced medical imaging technologies in resource-constrained environments. The code is available at https://github.com/hbyecoding/U-RWKV.
- Abstract(参考訳): 医療アクセシビリティーにおけるエクイティの獲得には、特にリソース制限された設定において、医療画像セグメンテーションのための軽量で高性能なソリューションが必要である。
U-Netやその変種のような既存のメソッドは、制限されたグローバル・エフェクト・レセプティブ・フィールド(ERF)に悩まされることが多く、長距離依存関係をキャプチャする能力を妨げている。
そこで本研究では,O(N)計算コストで効率的な長距離モデリングを実現するRWKVアーキテクチャを利用した新しいフレームワークであるU-RWKVを提案する。
Direction-Adaptive RWKV Module(DARM)とStage-Adaptive Squeeze-and-Excitation Module(SASE)である。
DARMは、Dual-RWKVとQuadScanメカニズムを使用して、画像全体にわたるコンテキストキューを集約し、グローバルなコンテキストを維持しながら方向バイアスを緩和し、高い計算効率を維持する。
SASEはアーキテクチャを異なる特徴抽出段階に動的に適応させ、高解像度のディテール保存とセマンティックリレーションキャプチャのバランスをとる。
実験により、U-RWKVは高度な計算効率で最先端のセグメンテーション性能を実現し、資源制約環境下で高度な医用画像技術を民主化するための実用的なソリューションを提供する。
コードはhttps://github.com/hbyecoding/U-RWKVで入手できる。
関連論文リスト
- URWKV: Unified RWKV Model with Multi-state Perspective for Low-light Image Restoration [22.746234919635018]
多状態視点を用いた統一受容重み付き鍵値(URWKV)モデルを提案する。
URWKVブロックのコアをカスタマイズし、複数のステージ内およびステージ間状態を利用して複雑な劣化を認識・解析する。
最先端モデルと比較して、URWKVモデルは様々なベンチマークにおいて優れた性能を発揮する。
論文 参考訳(メタデータ) (2025-05-29T04:17:09Z) - RWKV-UNet: Improving UNet with Long-Range Cooperation for Effective Medical Image Segmentation [39.11918061481855]
本稿では,RWKV構造をU-Netアーキテクチャに統合する新しいモデルであるRWKV-UNetを提案する。
この統合により、長い範囲の依存関係をキャプチャし、コンテキスト理解を改善するモデルの能力が向上する。
RWKV-UNetは,様々な種類の医用画像のセグメンテーションにおいて最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-01-14T22:03:00Z) - Exploring Real&Synthetic Dataset and Linear Attention in Image Restoration [47.26304397935705]
画像復元は、劣化した入力から高品質な画像を復元することを目的としている。
既存のメソッドにはイテレーションと設定のための統一的なトレーニングベンチマークがない。
本稿では,画像複雑性に基づいた新しい画像フィルタリング手法であるReSynという大規模IRデータセットを提案する。
論文 参考訳(メタデータ) (2024-12-05T02:11:51Z) - Restore-RWKV: Efficient and Effective Medical Image Restoration with RWKV [15.585071228529731]
医用画像修復のための最初のRWKVモデルであるRestore-RWKVを提案する。
本稿では,線形計算複雑性を伴う大域的依存関係を捕捉する再帰的WKV(Re-WKV)アテンション機構を提案する。
実験の結果,Restore-RWKV は様々な医療画像復元作業において SOTA の性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-07-14T12:22:05Z) - LeRF: Learning Resampling Function for Adaptive and Efficient Image Interpolation [64.34935748707673]
最近のディープニューラルネットワーク(DNN)は、学習データ前処理を導入することで、パフォーマンスを著しく向上させた。
本稿では,DNNが学習した構造的前提と局所的連続仮定の両方を活かした学習再サンプリング(Learning Resampling, LeRF)を提案する。
LeRFは空間的に異なる再サンプリング関数を入力画像ピクセルに割り当て、ニューラルネットワークを用いてこれらの再サンプリング関数の形状を予測する。
論文 参考訳(メタデータ) (2024-07-13T16:09:45Z) - Diffusion-RWKV: Scaling RWKV-Like Architectures for Diffusion Models [33.372947082734946]
本稿では,NLPで使用されるRWKVモデルに適応した一連のアーキテクチャについて紹介する。
我々のモデルは、追加条件で順序付けされた入力を効率的に処理すると同時に、効果的にスケールアップするように設計されている。
その顕著な利点は空間集約の複雑さの低減であり、高解像度画像の処理に非常に適している。
論文 参考訳(メタデータ) (2024-04-06T02:54:35Z) - Vision-RWKV: Efficient and Scalable Visual Perception with RWKV-Like Architectures [96.00848293994463]
本稿では、NLPフィールドで使用されるRWKVモデルから適応したVision-RWKVを紹介する。
我々のモデルは、スパース入力を効率的に処理し、ロバストなグローバル処理能力を実証するために設計されている。
評価の結果,VRWKVは画像分類におけるViTの性能を超え,高速化とメモリ使用量の削減を図っている。
論文 参考訳(メタデータ) (2024-03-04T18:46:20Z) - Transforming Image Super-Resolution: A ConvFormer-based Efficient Approach [58.57026686186709]
本稿では, Convolutional Transformer Layer (ConvFormer) を導入し, ConvFormer-based Super-Resolution Network (CFSR) を提案する。
CFSRは畳み込みベースのアプローチとトランスフォーマーベースのアプローチの両方の利点を継承する。
CFSRは計算コストと性能のバランスが最適であることを示す実験である。
論文 参考訳(メタデータ) (2024-01-11T03:08:00Z) - Image-specific Convolutional Kernel Modulation for Single Image
Super-resolution [85.09413241502209]
本稿では,新しい画像特異的畳み込み変調カーネル(IKM)を提案する。
我々は、画像や特徴のグローバルな文脈情報を利用して、畳み込みカーネルを適応的に調整するための注意重みを生成する。
単一画像超解像実験により,提案手法は最先端手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2021-11-16T11:05:10Z) - Video Face Super-Resolution with Motion-Adaptive Feedback Cell [90.73821618795512]
深部畳み込みニューラルネットワーク(CNN)の発展により,ビデオ超解像法(VSR)は近年,顕著な成功を収めている。
本稿では,動作補償を効率的に捕捉し,適応的にネットワークにフィードバックする,シンプルで効果的なブロックである動き適応型フィードバックセル(MAFC)を提案する。
論文 参考訳(メタデータ) (2020-02-15T13:14:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。