論文の概要: Locating Cephalometric X-Ray Landmarks with Foveated Pyramid Attention
- arxiv url: http://arxiv.org/abs/2008.04428v1
- Date: Mon, 10 Aug 2020 21:44:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 23:15:01.004153
- Title: Locating Cephalometric X-Ray Landmarks with Foveated Pyramid Attention
- Title(参考訳): ピラミッド設置によるケパロメトリX線ランドマークの配置
- Authors: Logan Gilmour, Nilanjan Ray
- Abstract要約: CNNは、焦点における高密度ではなく、一様にサンプリングされる。
本稿では,入力画像の狭い視線を抽出し,それを反復的に洗練して回帰処理を行う画像ピラミッドに基づく手法を提案する。
本手法をケパロメトリーX線ランドマーク検出に適用し,最先端の成果を得る。
- 参考スコア(独自算出の注目度): 8.75682288556859
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: CNNs, initially inspired by human vision, differ in a key way: they sample
uniformly, rather than with highest density in a focal point. For very large
images, this makes training untenable, as the memory and computation required
for activation maps scales quadratically with the side length of an image. We
propose an image pyramid based approach that extracts narrow glimpses of the of
the input image and iteratively refines them to accomplish regression tasks. To
assist with high-accuracy regression, we introduce a novel intermediate
representation we call 'spatialized features'. Our approach scales
logarithmically with the side length, so it works with very large images. We
apply our method to Cephalometric X-ray Landmark Detection and get
state-of-the-art results.
- Abstract(参考訳): 人間の視覚に触発されたcnnは、焦点の最も高い密度ではなく、一様にサンプルを採取する。
非常に大きな画像では、アクティベーションマップに必要なメモリと計算が画像の側面の長さと2乗的にスケールするため、トレーニングは維持できない。
本研究では,入力画像の狭さを抽出し,反復的に改良して回帰作業を行うイメージピラミッドベースアプローチを提案する。
高度回帰を支援するために,我々は'spatialized features'と呼ぶ新しい中間表現を導入する。
我々の手法は横長と対数的にスケールするため、非常に大きな画像を扱う。
本手法をケパロメトリーX線ランドマーク検出に適用し,最先端の成果を得る。
関連論文リスト
- ADS: Approximate Densest Subgraph for Novel Image Discovery [1.7839986996686323]
本稿では,新しい画像発見のための高速かつトレーニング不要なアルゴリズムを提案する。
我々のアルゴリズムの鍵は、画像の集合を距離重み付きグラフとして定式化することであり、その中で我々の仕事はK-デンストグラフを見つけることである。
より正確な画像のマイニングが可能でありながら、メモリフットプリントを小さくして実行する方がはるかに高速であることを示す。
論文 参考訳(メタデータ) (2024-02-13T19:27:34Z) - Hi-Map: Hierarchical Factorized Radiance Field for High-Fidelity
Monocular Dense Mapping [51.739466714312805]
ニューラルラジアンス場(NeRF)に基づく新しいモノクリン高密度マッピング手法であるHi-Mapを導入する。
ハイマップは、RGB入力のみを用いた効率的かつ高忠実なマッピングを実現する能力において例外的である。
論文 参考訳(メタデータ) (2024-01-06T12:32:25Z) - HQ3DAvatar: High Quality Controllable 3D Head Avatar [65.70885416855782]
本稿では,高フォトリアリスティックなデジタルヘッドアバターを構築するための新しいアプローチを提案する。
本手法はニューラルネットワークによってパラメータ化された暗黙関数を用いて標準空間を学習する。
テスト時,本手法は単眼のRGBビデオによって駆動される。
論文 参考訳(メタデータ) (2023-03-25T13:56:33Z) - KeypointNeRF: Generalizing Image-based Volumetric Avatars using Relative
Spatial Encoding of Keypoints [28.234772596912165]
スパースビューから高忠実度体積アバターをモデル化するための高効率なアプローチを提案する。
鍵となるアイデアの1つは、スパース3Dキーポイントを介して相対空間の3D情報を符号化することである。
実験の結果,先行作業における誤りの大部分は,空間符号化の不適切な選択に起因することがわかった。
論文 参考訳(メタデータ) (2022-05-10T15:57:03Z) - PixelPyramids: Exact Inference Models from Lossless Image Pyramids [58.949070311990916]
Pixel-Pyramidsは、画像画素の関節分布を符号化するスケール特異的表現を用いたブロック自動回帰手法である。
様々な画像データセット、特に高解像度データに対する密度推定の最先端結果が得られる。
CelebA-HQ 1024 x 1024 では,フローベースモデルの並列化よりもサンプリング速度が優れているにもかかわらず,密度推定値がベースラインの 44% に向上することが観察された。
論文 参考訳(メタデータ) (2021-10-17T10:47:29Z) - CAMERAS: Enhanced Resolution And Sanity preserving Class Activation
Mapping for image saliency [61.40511574314069]
バックプロパゲーション画像のサリエンシは、入力中の個々のピクセルのモデル中心の重要性を推定することにより、モデル予測を説明することを目的としている。
CAMERASは、外部の事前処理を必要とせずに、高忠実度バックプロパゲーション・サリエンシ・マップを計算できる手法である。
論文 参考訳(メタデータ) (2021-06-20T08:20:56Z) - Scale Normalized Image Pyramids with AutoFocus for Object Detection [75.71320993452372]
スケール正規化画像ピラミッド(SNIP)が生成され、人間の視覚と同様に、異なるスケールで固定されたサイズ範囲内のオブジェクトにのみ参加する。
本研究では,オブジェクトを含む可能性のある固定サイズのサブリージョンのみで動作する,効率的な空間サブサンプリング手法を提案する。
結果のアルゴリズムはAutoFocusと呼ばれ、SNIPを使用する場合の推論では2.5~5倍のスピードアップとなる。
論文 参考訳(メタデータ) (2021-02-10T18:57:53Z) - Pyramid Attention Networks for Image Restoration [124.34970277136061]
自己相似性(Self-similarity)とは、画像復元アルゴリズムで広く使われる画像を指す。
近年の深層畳み込みニューラルネットワークによる画像復元手法は, 自己相似性を十分に活用していない。
画像復元のための新しいピラミッドアテンションモジュールを提案し,マルチスケール特徴ピラミッドから長距離特徴対応をキャプチャする。
論文 参考訳(メタデータ) (2020-04-28T21:12:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。