論文の概要: E2ATST: A Temporal-Spatial Optimized Energy-Efficient Architecture for Training Spiking Transformer
- arxiv url: http://arxiv.org/abs/2508.00475v1
- Date: Fri, 01 Aug 2025 09:50:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-04 18:08:53.823156
- Title: E2ATST: A Temporal-Spatial Optimized Energy-Efficient Architecture for Training Spiking Transformer
- Title(参考訳): E2ATST:スパイキング変圧器の時間空間最適化エネルギー効率向上アーキテクチャ
- Authors: Yunhao Ma, Yanyu Lin, Mingjing Li, Puli Quan, Chenlin Zhou, Wenyue Zhang, Zhiwei Zhong, Wanyi Jia, Xueke Zhu, Qingyan Meng, Huihui Zhou, Fengwei An,
- Abstract要約: ペンチェン研究所, (2)南方理工大学, (3)深セン工業大学, 中国科学院, (4)中国科学院
- 参考スコア(独自算出の注目度): 4.837580933933966
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: (1) Pengcheng Laboratory, (2) Southern University of Science and Technology, (3) Shenzhen Institutes of Advanced Technology, Chinese Academy of Sciences, (4) University of Chinese Academy of Sciences
- Abstract(参考訳): (1)Pengcheng Laboratory, (2)Southern University of Science and Technology, (3)深セン工科大学, China Academy of Sciences, (4)University of China Academy of Sciences
関連論文リスト
- Innovator: Scientific Continued Pretraining with Fine-grained MoE Upcycling [67.98700689194291]
科学的なタスクと一般的なタスクの両方に知識を持つ大きな言語モデル(LLM)は、科学的な汎用知性の基盤である。
Innovatorは、事前学習中に、事前学習した高密度LCMを微細なMixtures-of-Expertsモデルにアップサイクリングする。
53.3Bの合計パラメータと13.3Bの活性化により、InnovatorはQwen2.5-7Bを拡張し、64の専門的な科学専門家と8の活性化を行った。
論文 参考訳(メタデータ) (2025-07-24T08:37:58Z) - Scientists' First Exam: Probing Cognitive Abilities of MLLM via Perception, Understanding, and Reasoning [59.518397361341556]
我々は,Multimodal Large Language Models (MLLM) の科学的認知能力を評価するために設計された,Scientists' First Exam (SFE) ベンチマークを提示する。
SFEは3つの質問タイプにまたがる830のエキスパート検証VQAペアで構成され、5つの高価値分野にまたがる66のマルチモーダルタスクにまたがる。
実験の結果、現在最先端のGPT-o3とInternVL-3はSFEでわずか34.08%と26.52%しか達成できず、MLLMが科学領域で改善する余地があることが明らかになった。
論文 参考訳(メタデータ) (2025-06-12T09:29:16Z) - ScienceBoard: Evaluating Multimodal Autonomous Agents in Realistic Scientific Workflows [82.07367406991678]
大規模言語モデル(LLM)は自然言語処理を超えてその影響を拡大している。
これらのうち、コンピュータ利用エージェントは、人間がしているようにオペレーティングシステムと対話することができる。
我々はScienceBoardを紹介し、ダイナミックで視覚的にリッチな科学ソフトウェアを特徴とする現実的でマルチドメイン環境を包含する。
論文 参考訳(メタデータ) (2025-05-26T12:27:27Z) - Understanding Computational Science and Engineering (CSE) and Domain Science Skills Development in National Laboratory Postgraduate Internships [0.0]
国立研究所のインターンシップは、すべての機関で利用できないかもしれないCSEスキルを学生が構築する機会であることを示す。
また,研究トピックへの直接的露出を通じて,インターンシップにおけるドメインサイエンスのスキルの成長を示す。
論文 参考訳(メタデータ) (2025-01-17T23:31:57Z) - KATO: Knowledge Alignment and Transfer for Transistor Sizing of Different Design and Technology [7.0446261298995525]
本稿では,(1)効率的な自動カーネル構築,(2)異なる回路とBOのための技術ノードをまたいだ第1のトランスファー学習,(3)有用な知識のみを活用するための選択的なトランスファー学習手法を提案する。
最先端のパフォーマンスを実現するための知識アライメントと転送最適化(KATO) - 最大2倍のシミュレーション削減と1.2倍の設計改善。
論文 参考訳(メタデータ) (2024-04-19T11:05:13Z) - DeepSpeed4Science Initiative: Enabling Large-Scale Scientific Discovery
through Sophisticated AI System Technologies [116.09762105379241]
DeepSpeed4Scienceは、AIシステム技術革新を通じてユニークな機能を構築することを目指している。
我々は、構造生物学研究における2つの重要なシステム課題に対処するために、DeepSpeed4Scienceで行った初期の進歩を紹介した。
論文 参考訳(メタデータ) (2023-10-06T22:05:15Z) - Heliophysics Discovery Tools for the 21st Century: Data Science and
Machine Learning Structures and Recommendations for 2020-2050 [0.0]
ヘリオフィジカル・サイエンス・ディスカバリーの手法は、継続的に進化していく。
データ、技術、労働力の変化のペースで成長するには、バイオ物理学は知識の表現に新しいアプローチを必要とする。
論文 参考訳(メタデータ) (2022-12-26T23:43:25Z) - PhAST: Physics-Aware, Scalable, and Task-specific GNNs for Accelerated
Catalyst Design [102.9593507372373]
触媒材料は産業プロセスに関わる電気化学反応において重要な役割を担っている。
機械学習は、大量のデータから材料特性を効率的にモデル化する可能性を秘めている。
本稿では,ほとんどのアーキテクチャに適用可能なタスク固有のイノベーションを提案し,計算効率と精度の両立を図っている。
論文 参考訳(メタデータ) (2022-11-22T05:24:30Z) - KnowledgeShovel: An AI-in-the-Loop Document Annotation System for
Scientific Knowledge Base Construction [46.56643271476249]
KnowledgeShovelは、研究者が科学的知識基盤を構築するための、Al-in-the-Loop文書アノテーションシステムである。
KnowledgeShovelの設計では、多段階のマルチモーダルAIコラボレーションパイプラインを導入し、データの正確性を向上し、人的負担を軽減する。
7つの地学研究者によるフォローアップユーザ評価では、知識ショベルは、十分な精度で科学的知識ベースを効率的に構築できることを示している。
論文 参考訳(メタデータ) (2022-10-06T11:38:18Z) - Applications and Techniques for Fast Machine Learning in Science [11.578814969632552]
このレポートは、Fast ML for Scienceコミュニティが開催する2つのワークショップに基づいている。
さまざまな科学的領域にわたる高速MLのアプリケーション、パフォーマンスとリソース効率のアルゴリズムのトレーニングと実装のテクニック、これらのアルゴリズムをデプロイするアーキテクチャ、プラットフォーム、テクノロジの3つの分野をカバーする。
このレポートは、統合および加速されたMLソリューションによる科学的発見のための多くの例とインスピレーションを提供することを目的としている。
論文 参考訳(メタデータ) (2021-10-25T15:25:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。