論文の概要: Self-Supervised Neural Architecture Search for Multimodal Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2512.24793v1
- Date: Wed, 31 Dec 2025 11:30:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-01 23:27:28.63659
- Title: Self-Supervised Neural Architecture Search for Multimodal Deep Neural Networks
- Title(参考訳): マルチモーダルディープニューラルネットワークの自己監督型ニューラルネットワーク探索
- Authors: Shota Suzuki, Satoshi Ono,
- Abstract要約: 本稿では,マルチモーダルディープニューラルネットワーク(DNN)のアーキテクチャ探索のための自己教師付き学習(SSL)手法を提案する。
実験の結果,提案手法はラベルのないトレーニングデータからDNNのアーキテクチャを設計することに成功した。
- 参考スコア(独自算出の注目度): 0.12891210250935145
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural architecture search (NAS), which automates the architectural design process of deep neural networks (DNN), has attracted increasing attention. Multimodal DNNs that necessitate feature fusion from multiple modalities benefit from NAS due to their structural complexity; however, constructing an architecture for multimodal DNNs through NAS requires a substantial amount of labeled training data. Thus, this paper proposes a self-supervised learning (SSL) method for architecture search of multimodal DNNs. The proposed method applies SSL comprehensively for both the architecture search and model pretraining processes. Experimental results demonstrated that the proposed method successfully designed architectures for DNNs from unlabeled training data.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)のアーキテクチャ設計プロセスを自動化するニューラルアーキテクチャサーチ(NAS)が注目を集めている。
マルチモーダルDNNは,その構造的複雑さからNASの利点を享受するが,NASによるマルチモーダルDNNのアーキテクチャ構築には大量のラベル付きトレーニングデータが必要である。
そこで本稿では,マルチモーダルDNNのアーキテクチャ探索のための自己教師付き学習(SSL)手法を提案する。
提案手法はアーキテクチャ探索とモデル事前学習の両方にSSLを包括的に適用する。
実験の結果,提案手法はラベルのないトレーニングデータからDNNのアーキテクチャを設計することに成功した。
関連論文リスト
- LM-Searcher: Cross-domain Neural Architecture Search with LLMs via Unified Numerical Encoding [55.5535016040221]
LM-Searcherは、クロスドメインニューラルネットワーク最適化のための新しいフレームワークである。
我々のアプローチの中心は、ニューラルネットワークのための普遍的な数値文字列表現であるNCodeである。
我々のデータセットは、幅広いアーキテクチャとパフォーマンスのペアを含み、堅牢で伝達可能な学習を促進する。
論文 参考訳(メタデータ) (2025-09-06T09:26:39Z) - Multi-Objective Evolutionary Neural Architecture Search for Recurrent Neural Networks [0.0]
本稿では,多目的進化アルゴリズムに基づくRNNアーキテクチャ探索手法を提案する。
提案手法は,進化過程におけるRNNアーキテクチャの複雑性最適化のための近似ネットワーク型に依存する。
論文 参考訳(メタデータ) (2024-03-17T11:19:45Z) - A Self-adaptive Neuroevolution Approach to Constructing Deep Neural
Network Architectures Across Different Types [5.429458930060452]
本稿では,様々なタスクに対して,様々な軽量なDeep Neural Network(DNN)アーキテクチャを自動構築する,自己適応型神経進化(SANE)アプローチを提案する。
SANEの重要な設定の1つは、異なるDNNタイプに適応した細胞と臓器によって定義された検索空間である。
SANEは、進化探索とエクスプロイトを自己適応的に調整し、探索効率を向上させることができる。
論文 参考訳(メタデータ) (2022-11-27T07:40:25Z) - Neural Architecture Search for Spiking Neural Networks [10.303676184878896]
スパイキングニューラルネットワーク(SNN)は、従来のニューラルネットワーク(ANN)に代わるエネルギー効率の高い代替手段として大きな注目を集めている。
従来のSNN手法のほとんどはANNのようなアーキテクチャを使用しており、これはSNNにおけるバイナリ情報の時間的シーケンス処理に準最適性能を提供する。
より優れたSNNアーキテクチャを見つけるための新しいニューラルネットワーク探索(NAS)手法を提案する。
論文 参考訳(メタデータ) (2022-01-23T16:34:27Z) - Search to aggregate neighborhood for graph neural network [47.47628113034479]
そこで本研究では,データ固有のGNNアーキテクチャを自動的に設計するためのフレームワークとして,SANE(Search to Aggregate NEighborhood)を提案する。
新規で表現力のある検索空間を設計することにより,従来の強化学習法よりも効率的である微分可能な探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-04-14T03:15:19Z) - Neural Architecture Search For LF-MMI Trained Time Delay Neural Networks [61.76338096980383]
TDNN(State-of-the-the-art Factored Time delay Neural Network)の2種類のハイパーパラメータを自動的に学習するために、さまざまなニューラルネットワークサーチ(NAS)技術が使用されている。
DARTSメソッドはアーキテクチャ選択とLF-MMI(格子のないMMI)TDNNトレーニングを統合する。
300時間のSwitchboardコーパスで行われた実験では、自動構成システムはベースラインLF-MMI TDNNシステムより一貫して優れていることが示唆された。
論文 参考訳(メタデータ) (2020-07-17T08:32:11Z) - NAS-Count: Counting-by-Density with Neural Architecture Search [74.92941571724525]
ニューラルアーキテクチャサーチ(NAS)を用いたカウントモデルの設計を自動化する
エンド・ツー・エンドの検索エンコーダ・デコーダアーキテクチャであるAutomatic Multi-Scale Network(AMSNet)を導入する。
論文 参考訳(メタデータ) (2020-02-29T09:18:17Z) - Modeling Neural Architecture Search Methods for Deep Networks [9.561123408923489]
本稿では,ニューラルアーキテクチャ探索法(NAS)の一般化モデルを提案する。
重要な関心領域を分類し識別するための異なる設計アプローチを比較することが可能である。
論文 参考訳(メタデータ) (2019-12-31T05:51:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。