論文の概要: qlty: handling large tensors in scientific imaging
- arxiv url: http://arxiv.org/abs/2407.04920v1
- Date: Sat, 6 Jul 2024 02:01:24 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-09 21:57:27.503592
- Title: qlty: handling large tensors in scientific imaging
- Title(参考訳): 科学画像における大きなテンソルの扱いは
- Authors: Petrus Zwart,
- Abstract要約: 本稿では,テンソル管理手法を用いて課題に対処するツールキットであるqltyを紹介する。
qltyは、大規模な空間データのサブサンプリング、クリーニング、縫合のための堅牢な方法を提供する。
- 参考スコア(独自算出の注目度): 0.1450405446885067
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In scientific imaging, deep learning has become a pivotal tool for image analytics. However, handling large volumetric datasets, which often exceed the memory capacity of standard GPUs, require special attention when subjected to deep learning efforts. This paper introduces qlty, a toolkit designed to address these challenges through tensor management techniques. qlty offers robust methods for subsampling, cleaning, and stitching of large-scale spatial data, enabling effective training and inference even in resource-limited environments.
- Abstract(参考訳): 科学的イメージングにおいて、ディープラーニングは画像分析の重要なツールとなっている。
しかし、標準的なGPUのメモリ容量を超える大きなボリュームデータセットを扱うには、ディープラーニングの取り組みに従わなければならない。
本稿では、テンソル管理技術を用いてこれらの課題に対処するツールキットであるqltyを紹介する。
qltyは、大規模な空間データのサブサンプリング、クリーニング、縫合のための堅牢な方法を提供する。
関連論文リスト
- Large-Scale Data-Free Knowledge Distillation for ImageNet via Multi-Resolution Data Generation [53.95204595640208]
Data-Free Knowledge Distillation (DFKD)は、教師モデルから生徒モデルへの知識伝達を可能にする高度な技術である。
従来のアプローチでは、実際の画像の情報を活用することなく、高解像度で合成画像を生成してきた。
MUSEは、クラスアクティベーションマップ(CAM)を使用して、低い解像度で画像を生成し、生成された画像が重要なクラス固有の特徴を保持することを保証する。
論文 参考訳(メタデータ) (2024-11-26T02:23:31Z) - Weakly Supervised Deep Hyperspherical Quantization for Image Retrieval [76.4407063566172]
Weakly-Supervised Deep Hyperspherical Quantization (WSDHQ)を提案する。
具体的には,1)単語の埋め込みを用いてタグを表現し,タグ相関グラフに基づく意味情報を強化する。
我々は、よく設計された融合層とテーラーメイドの損失関数を用いて、セマンティックス保存の埋め込みと超球上の量子化器を協調的に学習する。
論文 参考訳(メタデータ) (2024-04-07T15:48:33Z) - Rethinking Transformers Pre-training for Multi-Spectral Satellite
Imagery [78.43828998065071]
教師なし学習の最近の進歩は、下流タスクにおける有望な結果を達成するための大きな視覚モデルの可能性を示している。
このような事前学習技術は、大量の未学習データが利用可能であることから、リモートセンシング領域でも最近研究されている。
本稿では,マルチモーダルで効果的に活用されるマルチスケール情報の事前学習と活用について述べる。
論文 参考訳(メタデータ) (2024-03-08T16:18:04Z) - Multiple Instance Learning for Digital Pathology: A Review on the
State-of-the-Art, Limitations & Future Potential [0.29008108937701327]
デジタルスライド画像には膨大な情報が含まれている。
ディープニューラルネットワークは、デジタル病理学の分野における様々なタスクに対して高いポテンシャルを示す。
ディープラーニングアルゴリズムは、効果的なトレーニングを可能にするために、大量の画像データに加えて、(手動)アノテーションを必要とする。
複数のインスタンス学習は、完全な注釈付きデータなしでシナリオでディープニューラルネットワークを学習するための強力なツールである。
論文 参考訳(メタデータ) (2022-06-09T11:27:26Z) - Understanding the World Through Action [91.3755431537592]
ラベルのないデータを利用するための汎用的で原則的で強力なフレームワークは、強化学習から導き出すことができると私は主張する。
このような手順が、下流の潜在的なタスクとどのように密接に一致しているかについて論じます。
論文 参考訳(メタデータ) (2021-10-24T22:33:52Z) - CAN3D: Fast 3D Medical Image Segmentation via Compact Context
Aggregation [6.188937569449575]
本稿では,メモリフットプリントの浅いコンパクト畳み込みニューラルネットワークを提案する。
提案するネットワークは,パッチを必要とせず,大規模な3次元入力ボリュームを直接処理することでデータの整合性を維持することができる。
論文 参考訳(メタデータ) (2021-09-12T06:27:59Z) - Tensor Methods in Computer Vision and Deep Learning [120.3881619902096]
テンソル(tensor)は、複数の次元の視覚データを自然に表現できるデータ構造である。
コンピュータビジョンにおけるディープラーニングパラダイムシフトの出現により、テンソルはさらに基本的なものになっている。
本稿では,表現学習と深層学習の文脈において,テンソルとテンソル法を深く,実践的に検討する。
論文 参考訳(メタデータ) (2021-07-07T18:42:45Z) - Deep learning with self-supervision and uncertainty regularization to
count fish in underwater images [28.261323753321328]
効果的な保全活動には、効果的な人口監視が必要です。
画像サンプリングによる人口のモニタリングにより、データ収集は安価で広く、侵入性が低くなっている。
このようなデータから動物を数えることは、特に騒々しい画像に密に詰め込まれた場合、困難です。
深層学習は多くのコンピュータビジョンタスクの最先端の手法であるが、動物を数えるためにはまだ十分に研究されていない。
論文 参考訳(メタデータ) (2021-04-30T13:02:19Z) - The Intrinsic Dimension of Images and Its Impact on Learning [60.811039723427676]
自然画像データは従来の画素表現の高次元にもかかわらず低次元構造を示すと広く信じられている。
本研究では,一般的なデータセットに次元推定ツールを適用し,深層学習における低次元構造の役割を検討する。
論文 参考訳(メタデータ) (2021-04-18T16:29:23Z) - Image Augmentation for Multitask Few-Shot Learning: Agricultural Domain
Use-Case [0.0]
本稿では,植物フェノミクスドメインの例に基づいて,小規模で不均衡なデータセットに挑戦する。
画像拡張フレームワークを導入することで,トレーニングサンプル数を大幅に拡大することができる。
本手法は,少数のトレーニングサンプルが利用可能であれば,モデル性能が向上することを示す。
論文 参考訳(メタデータ) (2021-02-24T14:08:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。