論文の概要: Set Transformer Architectures and Synthetic Data Generation for Flow-Guided Nanoscale Localization
- arxiv url: http://arxiv.org/abs/2508.16200v1
- Date: Fri, 22 Aug 2025 08:22:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-25 16:42:36.309159
- Title: Set Transformer Architectures and Synthetic Data Generation for Flow-Guided Nanoscale Localization
- Title(参考訳): フローガイド型ナノスケールローカライゼーションのための集合変換器アーキテクチャと合成データ生成
- Authors: Mika Leo Hube, Filip Lemic, Ethungshan Shitiri, Gerard Calvo Bartra, Sergi Abadal, Xavier Costa Pérez,
- Abstract要約: Flow-guided Localization (FGL) は、診断上の関心事を含む人体内の空間領域の同定を可能にする。
既存のFGLソリューションは、固定トポロジや手作りの機能を備えたグラフモデルに依存しており、解剖学的変数への適応性を制限し、スケーラビリティを妨げている。
本定式化は,ナノデバイスにおける循環時間レポートを非順序集合として扱い,空間的先行時間に依存することなく,置換不変な可変長入力処理を可能にする。
- 参考スコア(独自算出の注目度): 13.521075124606973
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Flow-guided Localization (FGL) enables the identification of spatial regions within the human body that contain an event of diagnostic interest. FGL does that by leveraging the passive movement of energy-constrained nanodevices circulating through the bloodstream. Existing FGL solutions rely on graph models with fixed topologies or handcrafted features, which limit their adaptability to anatomical variability and hinder scalability. In this work, we explore the use of Set Transformer architectures to address these limitations. Our formulation treats nanodevices' circulation time reports as unordered sets, enabling permutation-invariant, variable-length input processing without relying on spatial priors. To improve robustness under data scarcity and class imbalance, we integrate synthetic data generation via deep generative models, including CGAN, WGAN, WGAN-GP, and CVAE. These models are trained to replicate realistic circulation time distributions conditioned on vascular region labels, and are used to augment the training data. Our results show that the Set Transformer achieves comparable classification accuracy compared to Graph Neural Networks (GNN) baselines, while simultaneously providing by-design improved generalization to anatomical variability. The findings highlight the potential of permutation-invariant models and synthetic augmentation for robust and scalable nanoscale localization.
- Abstract(参考訳): Flow-guided Localization (FGL) は、診断上の関心事を含む人体内の空間領域の同定を可能にする。
FGLは、血流を循環するエネルギーに制約されたナノデバイスを受動的に動かすことで実現している。
既存のFGLソリューションは、固定トポロジや手作りの機能を備えたグラフモデルに依存しており、解剖学的変数への適応性を制限し、スケーラビリティを妨げている。
本研究では,これらの制約に対処するために,Set Transformerアーキテクチャの利用について検討する。
本定式化では,ナノデバイスの循環時間レポートを非順序集合として扱い,空間的先行時間に依存することなく,置換不変な可変長入力処理を可能にする。
データ不足とクラス不均衡下でのロバスト性を改善するため、CGAN、WGAN、WGAN-GP、CVAEなどの深層生成モデルを介して合成データを生成する。
これらのモデルは、血管領域ラベルに条件付けられた現実的な循環時間分布を再現するために訓練され、トレーニングデータを増強するために使用される。
その結果,Set Transformer はグラフニューラルネットワーク (GNN) のベースラインと同等の分類精度を達成でき,同時に副設計により解剖学的変数への一般化が向上した。
この結果は、置換不変モデルと、堅牢でスケーラブルなナノスケールローカライゼーションのための合成拡張の可能性を強調している。
関連論文リスト
- Enhancing material behavior discovery using embedding-oriented Physically-Guided Neural Networks with Internal Variables [0.0]
内部変数を持つ物理的ガイド付きニューラルネットワークは、トレーニングや内部状態関係の解明に可観測データのみを使用するSciMLツールである。
それらの可能性にもかかわらず、これらのモデルは、細粒度空間場や時間進化システムのような高次元データに適用する場合、スケーラビリティの課題に直面している。
本稿では,これらのスケーラビリティの限界に対処するPGNNIVフレームワークの改良について,低次モデリング手法を用いて提案する。
論文 参考訳(メタデータ) (2025-08-01T12:33:21Z) - Langevin Flows for Modeling Neural Latent Dynamics [81.81271685018284]
逐次変分自動エンコーダであるLangevinFlowを導入し、潜伏変数の時間的進化をアンダーダム化したLangevin方程式で制御する。
われわれのアプローチは、慣性、減衰、学習されたポテンシャル関数、力などの物理的事前を組み込んで、ニューラルネットワークにおける自律的および非自律的プロセスの両方を表現する。
本手法は,ロレンツ誘引器によって生成される合成神経集団に対する最先端のベースラインより優れる。
論文 参考訳(メタデータ) (2025-07-15T17:57:48Z) - GALDS: A Graph-Autoencoder-based Latent Dynamics Surrogate model to predict neurite material transport [1.104960878651584]
本稿では,ニューラルツリー内の物質輸送シミュレーションを効率化するグラフオートコーダを用いたレイトタント・ダイナミクス・サロゲートモデルを提案する。
提案手法は, 最大相対誤差8%で平均相対誤差3%を達成し, 従来のサロゲートモデルに比べて10倍の速度向上を示した。
論文 参考訳(メタデータ) (2025-07-15T00:22:00Z) - GITO: Graph-Informed Transformer Operator for Learning Complex Partial Differential Equations [0.0]
複素偏微分方程式系を学習するための新しいグラフインフォームド・トランスフォーマ演算子(GITO)アーキテクチャを提案する。
GITOは、HGT(Hybrid graph transformer)とTNO(Transformer Neural operator)の2つの主要モジュールから構成される。
ベンチマークPDEタスクの実験的結果は、GITOが既存のトランスフォーマーベースのニューラル演算子より優れていることを示している。
論文 参考訳(メタデータ) (2025-06-16T18:35:45Z) - Graph Adapter of EEG Foundation Models for Parameter Efficient Fine Tuning [1.8946099300030472]
これらの課題に対処するために,パラメータ効率のよい微細チューニング(PEFT)手法であるEEG-GraphAdapter (EGA)を提案する。
EGAは、GNNベースのモジュールとしてトレーニング済みの時間バックボーンモデルに統合され、バックボーンを凍結し、アダプタのみを微調整できる。
重度抑うつ障害(MDD)と不規則性検出(TUAB)の2つの医療関連下流課題に対する実験的評価 : 背骨BENDRモデルと比較して,EGAがF1スコアで最大16.1%向上することを示す。
論文 参考訳(メタデータ) (2024-11-25T07:30:52Z) - Synthetic location trajectory generation using categorical diffusion
models [50.809683239937584]
拡散モデル(DPM)は急速に進化し、合成データのシミュレーションにおける主要な生成モデルの一つとなっている。
本稿では,個人が訪れた物理的位置を表す変数列である合成個別位置軌跡(ILT)の生成にDPMを用いることを提案する。
論文 参考訳(メタデータ) (2024-02-19T15:57:39Z) - Interpretable A-posteriori Error Indication for Graph Neural Network Surrogate Models [0.0]
本稿では,グラフニューラルネットワーク(GNN)の解釈可能性向上手法を提案する。
最終結果は、予測タスクに本質的に関連付けられたサブグラフに対応する物理空間内の領域を分離する解釈可能なGNNモデルである。
解釈可能なGNNは、推論中に予測される予測エラーの大部分に対応するグラフノードを特定するためにも使用できる。
論文 参考訳(メタデータ) (2023-11-13T18:37:07Z) - Accelerating Scalable Graph Neural Network Inference with Node-Adaptive
Propagation [80.227864832092]
グラフニューラルネットワーク(GNN)は、様々なアプリケーションで例外的な効果を発揮している。
大規模グラフの重大化は,GNNによるリアルタイム推論において重要な課題となる。
本稿では,オンライン伝搬フレームワークと2つの新しいノード適応伝搬手法を提案する。
論文 参考訳(メタデータ) (2023-10-17T05:03:00Z) - VTAE: Variational Transformer Autoencoder with Manifolds Learning [144.0546653941249]
深層生成モデルは、多くの潜伏変数を通して非線形データ分布の学習に成功している。
ジェネレータの非線形性は、潜在空間がデータ空間の不満足な射影を示し、表現学習が不十分になることを意味する。
本研究では、測地学と正確な計算により、深部生成モデルの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-04-03T13:13:19Z) - Orthogonal Graph Neural Networks [53.466187667936026]
グラフニューラルネットワーク(GNN)は,ノード表現の学習において優れていたため,大きな注目を集めている。
より畳み込み層を積み重ねることで、GNNのパフォーマンスが大幅に低下する。
本稿では,モデルトレーニングの安定化とモデル一般化性能の向上のために,既存のGNNバックボーンを拡張可能なOrtho-GConvを提案する。
論文 参考訳(メタデータ) (2021-09-23T12:39:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。