論文の概要: Warwick Electron Microscopy Datasets
- arxiv url: http://arxiv.org/abs/2003.01113v4
- Date: Thu, 21 May 2020 06:25:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 06:00:41.989941
- Title: Warwick Electron Microscopy Datasets
- Title(参考訳): ワーウィック電子顕微鏡データセット
- Authors: Jeffrey M. Ede
- Abstract要約: 電子顕微鏡データセットをより広いコミュニティで利用できるようにするために、新しいリポジトリをセットアップしました。
19769個の走査透過電子顕微鏡、17266個の透過電子顕微鏡、98340個の模擬出口波動関数を含む3つの主要なデータセットがある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large, carefully partitioned datasets are essential to train neural networks
and standardize performance benchmarks. As a result, we have set up new
repositories to make our electron microscopy datasets available to the wider
community. There are three main datasets containing 19769 scanning transmission
electron micrographs, 17266 transmission electron micrographs, and 98340
simulated exit wavefunctions, and multiple variants of each dataset for
different applications. To visualize image datasets, we trained variational
autoencoders to encode data as 64-dimensional multivariate normal
distributions, which we cluster in two dimensions by t-distributed stochastic
neighbor embedding. In addition, we have improved dataset visualization with
variational autoencoders by introducing encoding normalization and
regularization, adding an image gradient loss, and extending t-distributed
stochastic neighbor embedding to account for encoded standard deviations. Our
datasets, source code, pretrained models, and interactive visualizations are
openly available at https://github.com/Jeffrey-Ede/datasets.
- Abstract(参考訳): 大規模で慎重に分割されたデータセットは、ニューラルネットワークのトレーニングとパフォーマンスベンチマークの標準化に不可欠である。
その結果、我々は電子顕微鏡データセットをより広いコミュニティで利用できるようにするための新しいリポジトリを構築しました。
19769個の走査透過電子線、17266個の透過電子線、98340個の模擬出口波動関数を含む3つの主要なデータセットと、それぞれのデータセットの複数の変種がある。
画像データセットを可視化するために,変分オートエンコーダを訓練し,データを64次元の多変量正規分布として符号化した。
さらに,符号化正規化と正規化の導入,画像勾配損失の追加,符号化標準偏差を考慮したt分布確率的近傍埋め込みの拡張により,変分オートエンコーダによるデータセットの可視化を改善した。
データセット、ソースコード、事前トレーニングされたモデル、インタラクティブな視覚化はhttps://github.com/Jeffrey-Ede/datasets.comで公開されています。
関連論文リスト
- Multi-Label Plant Species Classification with Self-Supervised Vision Transformers [0.0]
植物CLEF 2024 コンペティションのための自己教師型ビジョントランスフォーマ (DINOv2) を用いた移動学習手法を提案する。
大規模データセットの計算課題に対処するために、分散データ処理にSparkを使用します。
本研究は,複数ラベル画像分類タスクにおいて,転送学習と高度なデータ処理技術を組み合わせることの有効性を示す。
論文 参考訳(メタデータ) (2024-07-08T18:07:33Z) - LM-IGTD: a 2D image generator for low-dimensional and mixed-type tabular data to leverage the potential of convolutional neural networks [0.0]
畳み込みニューラルネットワーク(CNN)は、機能(イメージ)の順番にデータに関する重要な情報が埋め込まれた多くのアプリケーションで成功している。
低次元および混合型データセットに関連する固有の制約に対処し、グラフデータを画像に変換するための新しい効果的なアプローチを提案する。
原特徴と生成された画像とのマッピングを確立し、これらの画像の重要な領域を特定するためにポストホック解釈可能性法を用いる。
論文 参考訳(メタデータ) (2024-04-26T09:52:39Z) - Rethinking Transformers Pre-training for Multi-Spectral Satellite
Imagery [78.43828998065071]
教師なし学習の最近の進歩は、下流タスクにおける有望な結果を達成するための大きな視覚モデルの可能性を示している。
このような事前学習技術は、大量の未学習データが利用可能であることから、リモートセンシング領域でも最近研究されている。
本稿では,マルチモーダルで効果的に活用されるマルチスケール情報の事前学習と活用について述べる。
論文 参考訳(メタデータ) (2024-03-08T16:18:04Z) - Dataset Quantization [72.61936019738076]
大規模データセットを小さなサブセットに圧縮する新しいフレームワークであるデータセット量子化(DQ)を提案する。
DQは、ImageNet-1kのような大規模データセットを最先端圧縮比で蒸留する最初の方法である。
論文 参考訳(メタデータ) (2023-08-21T07:24:29Z) - DatasetDM: Synthesizing Data with Perception Annotations Using Diffusion
Models [61.906934570771256]
多様な合成画像や知覚アノテーションを生成できる汎用データセット生成モデルを提案する。
本手法は,事前学習した拡散モデルに基づいて,テキスト誘導画像合成を知覚データ生成に拡張する。
拡散モデルのリッチ潜時コードはデコーダモジュールを用いて正確な認識アノテーションとして効果的に復号できることを示す。
論文 参考訳(メタデータ) (2023-08-11T14:38:11Z) - FakET: Simulating Cryo-Electron Tomograms with Neural Style Transfer [4.0998481751764]
低温透過電子顕微鏡のフォワード演算子をシミュレートできるFakETを導入する。
高品質なシミュレートされたマイクログラフや傾きシリーズを生成する基準データに従って、合成トレーニングデータセットを適応するために使用できる。
特筆すべきは、我々の技術は性能にマッチし、データ生成速度を750倍にし、メモリを33倍削減し、典型的な透過型電子顕微鏡検出器サイズによくスケールすることです。
論文 参考訳(メタデータ) (2023-04-04T17:59:09Z) - Expanding Small-Scale Datasets with Guided Imagination [92.5276783917845]
データセット拡張は、新しいラベル付きサンプルを自動生成することによって、使用可能な小さなデータセットを拡張することを目的とした、新しいタスクである。
GIFは、先行モデルの意味論的意味のある空間において、シードデータの潜伏した特徴を最適化することにより、データイマジネーションを行う。
GIF-SDは、SDによる非ガイド展開よりも、自然画像データセットのモデル精度が13.5%高い。
論文 参考訳(メタデータ) (2022-11-25T09:38:22Z) - ViTAEv2: Vision Transformer Advanced by Exploring Inductive Bias for
Image Recognition and Beyond [76.35955924137986]
我々は、内在性IBを畳み込み、すなわちViTAEから探索するビジョントランスフォーマーを提案する。
ViTAEはいくつかの空間ピラミッド縮小モジュールを備えており、入力イメージをリッチなマルチスケールコンテキストでトークンに埋め込む。
我々は、ImageNet検証セット上で88.5%のTop-1分類精度と、ImageNet実検証セット上で最高の91.2%のTop-1分類精度を得る。
論文 参考訳(メタデータ) (2022-02-21T10:40:05Z) - Multi-modal data generation with a deep metric variational autoencoder [1.3315493279442265]
変分オートエンコーダは、潜時空間における三重項損失を採用し、各クラスクラスタ内の潜時空間をサンプリングすることで条件付きデータ生成を可能にする。
本手法は, 広帯域ティンパノメトリー測定による鼓膜観察画像からなるマルチモーダルデータセットを用いて評価した。
論文 参考訳(メタデータ) (2022-02-07T15:00:02Z) - Locally Masked Convolution for Autoregressive Models [107.4635841204146]
LMConvは標準的な2Dコンボリューションの簡単な修正であり、任意のマスクを画像の各位置の重みに適用することができる。
我々は,パラメータを共有するが生成順序が異なる分布推定器のアンサンブルを学習し,全画像密度推定の性能を向上させる。
論文 参考訳(メタデータ) (2020-06-22T17:59:07Z) - A Joint Pixel and Feature Alignment Framework for Cross-dataset
Palmprint Recognition [25.43285951112965]
そこで本研究では,マルチデータセット・パームプリント認識シナリオのための新しい統合画素・特徴アライメント(JPFA)フレームワークを提案する。
2つのステージアライメントを適用して、ソースおよびターゲットデータセットの適応的な特徴を得る。
ベースラインと比較して、クロスデータセット識別の精度は最大28.10%向上し、クロスデータセット検証のEER(Equal Error Rate)は最大4.69%削減される。
論文 参考訳(メタデータ) (2020-05-25T11:40:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。