論文の概要: EAPCR: A Universal Feature Extractor for Scientific Data without Explicit Feature Relation Patterns
- arxiv url: http://arxiv.org/abs/2411.08164v1
- Date: Tue, 12 Nov 2024 20:15:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-14 16:09:05.894642
- Title: EAPCR: A Universal Feature Extractor for Scientific Data without Explicit Feature Relation Patterns
- Title(参考訳): EAPCR: 明示的な特徴関係パターンを持たない科学データのための普遍的特徴エクストラクタ
- Authors: Zhuohang Yu, Ling An, Yansong Li, Yu Wu, Zeyu Dong, Zhangdi Liu, Le Gao, Zhenyu Zhang, Chichun Zhou,
- Abstract要約: 明示的な特徴関係パターン(FRP)を持たないデータのための普遍的特徴抽出装置EAPCRを紹介する。
さまざまな科学的タスクでテストされたEAPCRは、従来の手法を一貫して上回り、ディープラーニングモデルが不足するギャップを埋める。
- 参考スコア(独自算出の注目度): 11.699722328870955
- License:
- Abstract: Conventional methods, including Decision Tree (DT)-based methods, have been effective in scientific tasks, such as non-image medical diagnostics, system anomaly detection, and inorganic catalysis efficiency prediction. However, most deep-learning techniques have struggled to surpass or even match this level of success as traditional machine-learning methods. The primary reason is that these applications involve multi-source, heterogeneous data where features lack explicit relationships. This contrasts with image data, where pixels exhibit spatial relationships; textual data, where words have sequential dependencies; and graph data, where nodes are connected through established associations. The absence of explicit Feature Relation Patterns (FRPs) presents a significant challenge for deep learning techniques in scientific applications that are not image, text, and graph-based. In this paper, we introduce EAPCR, a universal feature extractor designed for data without explicit FRPs. Tested across various scientific tasks, EAPCR consistently outperforms traditional methods and bridges the gap where deep learning models fall short. To further demonstrate its robustness, we synthesize a dataset without explicit FRPs. While Kolmogorov-Arnold Network (KAN) and feature extractors like Convolutional Neural Networks (CNNs), Graph Convolutional Networks (GCNs), and Transformers struggle, EAPCR excels, demonstrating its robustness and superior performance in scientific tasks without FRPs.
- Abstract(参考訳): 決定木(DT)に基づく手法を含む従来の手法は、非画像診断、システム異常検出、無機触媒効率予測などの科学的タスクに有効である。
しかし、ほとんどのディープラーニング技術は、伝統的な機械学習手法として、このレベルの成功を乗り越えるか、それに適合させるのに苦労している。
主な理由は、これらのアプリケーションは、特徴が明示的な関係を欠いている複数ソースの異種データを含むためである。
これは、ピクセルが空間的関係を示す画像データ、単語が逐次依存を持つテキストデータ、確立された関連を通じてノードが接続されるグラフデータと対照的である。
明示的な特徴関係パターン(FRP)の欠如は、画像、テキスト、グラフベースではない科学的応用において、ディープラーニング技術にとって重要な課題となる。
本稿では,明示的なFRPを使わずにデータ用に設計された汎用特徴抽出器EAPCRを紹介する。
さまざまな科学的タスクでテストされたEAPCRは、従来の手法を一貫して上回り、ディープラーニングモデルが不足するギャップを埋める。
さらにその堅牢性を示すために、明示的なFRPを使わずにデータセットを合成する。
Kolmogorov-Arnold Network(KAN)とConvolutional Neural Networks(CNN)、Graph Convolutional Networks(GCN)、Transformersは、EAPCRが優れている一方で、FRPのない科学タスクにおいて、その堅牢性と優れたパフォーマンスを示す。
関連論文リスト
- DFA-GNN: Forward Learning of Graph Neural Networks by Direct Feedback Alignment [57.62885438406724]
グラフニューラルネットワークは、様々なアプリケーションにまたがる強力なパフォーマンスで認識されている。
BPには、その生物学的妥当性に挑戦する制限があり、グラフベースのタスクのためのトレーニングニューラルネットワークの効率、スケーラビリティ、並列性に影響を与える。
半教師付き学習のケーススタディを用いて,GNNに適した新しい前方学習フレームワークであるDFA-GNNを提案する。
論文 参考訳(メタデータ) (2024-06-04T07:24:51Z) - Advancing Generalizable Remote Physiological Measurement through the
Integration of Explicit and Implicit Prior Knowledge [30.31568804817144]
リモート光胸腺撮影(remote photoplethysmography、r)は、顔ビデオから生理的信号をキャプチャする有望な技術である。
既存の方法の多くは r の事前の知識を見落としており、結果として一般化能力は劣る。
本稿では,rタスクにおける暗黙的,暗黙的な事前知識手法を同時に活用する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-11T17:33:25Z) - A Discrepancy Aware Framework for Robust Anomaly Detection [51.710249807397695]
本稿では,DAF(Disdisrepancy Aware Framework)を提案する。
本手法は,デコーダの欠陥同定に外見に依存しないキューを利用して,その合成外観への依存を緩和する。
単純な合成戦略の下では,既存の手法を大きなマージンで上回り,また,最先端のローカライゼーション性能も達成している。
論文 参考訳(メタデータ) (2023-10-11T15:21:40Z) - Homological Convolutional Neural Networks [4.615338063719135]
本稿では,トポロジ的に制約されたネットワーク表現を通じて,データ構造構造を利用した新しいディープラーニングアーキテクチャを提案する。
5つの古典的な機械学習モデルと3つのディープラーニングモデルに対して、18のベンチマークデータセットでモデルをテストします。
論文 参考訳(メタデータ) (2023-08-26T08:48:51Z) - FFEINR: Flow Feature-Enhanced Implicit Neural Representation for
Spatio-temporal Super-Resolution [4.577685231084759]
本稿では,フローフィールドデータの超高分解能化のための特徴強調型ニューラルインシシット表現(FFEINR)を提案する。
モデル構造とサンプリング分解能の観点から、暗黙のニューラル表現を最大限に活用することができる。
FFEINRのトレーニングプロセスは、入力層に機能拡張を導入することで容易になる。
論文 参考訳(メタデータ) (2023-08-24T02:28:18Z) - Source-Free Collaborative Domain Adaptation via Multi-Perspective
Feature Enrichment for Functional MRI Analysis [55.03872260158717]
安静時MRI機能(rs-fMRI)は、神経疾患の分析を助けるために多地点で研究されている。
ソース領域とターゲット領域の間のfMRIの不均一性を低減するための多くの手法が提案されている。
しかし、マルチサイト研究における懸念やデータストレージの負担のため、ソースデータの取得は困難である。
我々は、fMRI解析のためのソースフリー協調ドメイン適応フレームワークを設計し、事前訓練されたソースモデルとラベルなしターゲットデータのみにアクセスできるようにする。
論文 参考訳(メタデータ) (2023-08-24T01:30:18Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - Inducing Gaussian Process Networks [80.40892394020797]
本稿では,特徴空間と誘導点を同時に学習するシンプルなフレームワークであるGaussian Process Network (IGN)を提案する。
特に誘導点は特徴空間で直接学習され、複雑な構造化領域のシームレスな表現を可能にする。
実世界のデータセットに対する実験結果から,IGNは最先端の手法よりも大幅に進歩していることを示す。
論文 参考訳(メタデータ) (2022-04-21T05:27:09Z) - Tackling Oversmoothing of GNNs with Contrastive Learning [35.88575306925201]
グラフニューラルネットワーク(GNN)は、グラフデータと表現学習能力の包括的な関係を統合する。
オーバースムーシングはノードの最終的な表現を識別不能にし、ノード分類とリンク予測性能を劣化させる。
本稿では,TGCL(Topology-Guided Graph Contrastive Layer)を提案する。
論文 参考訳(メタデータ) (2021-10-26T15:56:16Z) - Spatio-Temporal Inception Graph Convolutional Networks for
Skeleton-Based Action Recognition [126.51241919472356]
我々はスケルトンに基づく行動認識のためのシンプルで高度にモジュール化されたグラフ畳み込みネットワークアーキテクチャを設計する。
ネットワークは,空間的および時間的経路から多粒度情報を集約するビルディングブロックを繰り返すことで構築される。
論文 参考訳(メタデータ) (2020-11-26T14:43:04Z) - Unsupervised Multi-Modal Representation Learning for Affective Computing
with Multi-Corpus Wearable Data [16.457778420360537]
我々は、人間の監督への依存を減らすために、教師なしの枠組みを提案する。
提案フレームワークは2つの畳み込み自己エンコーダを用いて、ウェアラブル心電図(ECG)と電磁気放射能(EDA)信号から潜時表現を学習する。
提案手法は, 同一のデータセット上での覚醒検出を行ない, 現状の成果よりも優れていた。
論文 参考訳(メタデータ) (2020-08-24T22:01:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。