論文の概要: Meta-autoencoders: An approach to discovery and representation of relationships between dynamically evolving classes
- arxiv url: http://arxiv.org/abs/2507.09362v1
- Date: Sat, 12 Jul 2025 17:50:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-15 18:48:22.979262
- Title: Meta-autoencoders: An approach to discovery and representation of relationships between dynamically evolving classes
- Title(参考訳): メタオートコーダ:動的に進化するクラス間の関係の発見と表現へのアプローチ
- Authors: Assaf Marron, Smadar Szekely, Irun Cohen, David Harel,
- Abstract要約: 本稿では,メタオートエンコーダ(MAE: Meta-autoencoder)の概念を紹介する。
ファミリーのMAEは、クラス固有のAEのコンパクト表現と関連するエンコーダとデコーダを学んだニューラルネットワークである。
この一般的な概念の1つの応用は自然進化の研究とモデリングである。
- 参考スコア(独自算出の注目度): 1.3274508420845539
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: An autoencoder (AE) is a neural network that, using self-supervised training, learns a succinct parameterized representation, and a corresponding encoding and decoding process, for all instances in a given class. Here, we introduce the concept of a meta-autoencoder (MAE): an AE for a collection of autoencoders. Given a family of classes that differ from each other by the values of some parameters, and a trained AE for each class, an MAE for the family is a neural net that has learned a compact representation and associated encoder and decoder for the class-specific AEs. One application of this general concept is in research and modeling of natural evolution -- capturing the defining and the distinguishing properties across multiple species that are dynamically evolving from each other and from common ancestors. In this interim report we provide a constructive definition of MAEs, initial examples, and the motivating research directions in machine learning and biology.
- Abstract(参考訳): オートエンコーダ(オートエンコーダ、英: autoencoder、AE)は、自己教師型トレーニングを用いて、与えられたクラスのすべてのインスタンスに対して、簡潔なパラメータ化表現とそれに対応する符号化および復号プロセスを学ぶニューラルネットワークである。
本稿では,メタオートエンコーダ(MAE: Meta-autoencoder)の概念を紹介する。
いくつかのパラメータの値によって異なるクラスのファミリーと各クラスの訓練されたAEが与えられたとき、ファミリーのMAEは、クラス固有のAEのコンパクトな表現と関連するエンコーダとデコーダを学習したニューラルネットワークである。
この一般的な概念の1つの応用は、自然進化の研究とモデリングである -- 互いに動的に進化し、共通の祖先から進化する複数の種をまたいだ定義と区別の性質を捉えている。
本中間報告では,MAEの構成的定義,初期例,機械学習と生物学における動機づけ研究の方向性について述べる。
関連論文リスト
- Kolmogorov Arnold Network Autoencoder in Medicine [1.9662978733004604]
最近の研究はKAN(Kolmogorov Arnold Networks)と呼ばれる新しいアーキテクチャを導入し、ニューラルネットワークのエッジに学習可能なアクティベーション関数を配置することで、複数のシナリオのパフォーマンスが向上したことを報告している。
本研究の目的は,複数バージョンのバニラAE(線形・畳み込み・変分法など)を,同じあるいは少ないパラメータを持つコルモゴロフ・アルノルドの値と比較することである。
心電図をモデル入力として, 再建, 生成, 復調, 着色, 異常検出の5種類の古典的AEタスクについて検討した。
論文 参考訳(メタデータ) (2025-07-19T06:50:50Z) - Perception Encoder: The best visual embeddings are not at the output of the network [70.86738083862099]
本稿では、単純な視覚言語学習によって訓練された画像と映像の理解のための視覚エンコーダであるPerception (PE)を紹介する。
対照的な視覚言語学習だけでは、これらの下流タスクに強力な汎用的な埋め込みを実現できることが分かっています。
PEモデル群は,多種多様なタスクにおいて,クラス内で最高の結果が得られる。
論文 参考訳(メタデータ) (2025-04-17T17:59:57Z) - Harmonizing Visual Representations for Unified Multimodal Understanding and Generation [53.01486796503091]
我々は,共有MARエンコーダによる理解と生成タスクを調和させる統合自己回帰フレームワークであるemphHarmonを提案する。
HarmonはGenEval、MJHQ30K、WISEベンチマークで最先端の画像生成結果を達成する。
論文 参考訳(メタデータ) (2025-03-27T20:50:38Z) - Universal Sparse Autoencoders: Interpretable Cross-Model Concept Alignment [6.614005142754584]
ユニバーサルスパースオートエンコーダ(英: Universal Sparse Autoencoders、USAEs)は、複数のディープニューラルネットワークにまたがる解釈可能な概念を明らかにするためのフレームワークである。
USAEは、複数のモデルの内部アクティベーションを一度に再構築し解釈できる普遍的な概念空間を学ぶ。
論文 参考訳(メタデータ) (2025-02-06T02:06:16Z) - How JEPA Avoids Noisy Features: The Implicit Bias of Deep Linear Self Distillation Networks [14.338754598043968]
データ表現の自己教師型学習には2つの競合パラダイムが存在する。
JEPA(Joint Embedding Predictive Architecture)は、意味的に類似した入力が互いに予測可能な表現に符号化されるアーキテクチャのクラスである。
論文 参考訳(メタデータ) (2024-07-03T19:43:12Z) - Unified Generation, Reconstruction, and Representation: Generalized Diffusion with Adaptive Latent Encoding-Decoding [90.77521413857448]
深層生成モデルは,3つのコア機能 – 新たなインスタンスの生成,入力の再構築,コンパクト表現の学習 – に固定されている。
一般化逆変換拡散確率モデル(EDDPM)を導入する。
EDDPMはパラメタライズされた符号化復号を導入することで標準拡散におけるガウス雑音化を一般化する。
テキスト、タンパク質、画像の実験は、多様なデータやタスクを扱う柔軟性を示している。
論文 参考訳(メタデータ) (2024-02-29T10:08:57Z) - A vector quantized masked autoencoder for audiovisual speech emotion recognition [5.8641712963450825]
VQ-MAE-AVは、マスク付きオートエンコーダを利用してラベルなしで音声視覚音声の表現を学習する自己教師型マルチモーダルモデルである。
このモデルは、ローカル(フレームレベル)とグローバル(シーケンスレベル)の両方のオーディオ視覚音声表現を抽出するように設計されている。
提案手法は、制御条件と非制御条件の両方において、複数のデータセットにまたがる最先端の感情認識結果を実現する。
論文 参考訳(メタデータ) (2023-05-05T14:19:46Z) - String-based Molecule Generation via Multi-decoder VAE [56.465033997245776]
可変オートエンコーダ(VAE)による文字列型分子生成の問題点について検討する。
本稿では,そのタスクに対するVAEの性能を改善するための,シンプルで効果的なアイデアを提案する。
実験では,提案するVAEモデルを用いて,領域外分布からサンプルを生成する。
論文 参考訳(メタデータ) (2022-08-23T03:56:30Z) - On a Mechanism Framework of Autoencoders [0.0]
本稿では,オートエンコーダの機構に関する理論的枠組みを提案する。
ReLUオートエンコーダの結果は、いくつかの非ReLUケースに一般化される。
PCAや決定木と比較して,次元の縮小と分類における(一般化された)オートエンコーダの利点が示された。
論文 参考訳(メタデータ) (2022-08-15T03:51:40Z) - Class-Specific Semantic Reconstruction for Open Set Recognition [101.24781422480406]
オープンセット認識により、ディープニューラルネットワーク(DNN)は未知のクラスのサンプルを識別できる。
本稿では,自動エンコーダ(AE)とプロトタイプ学習を統合したCSSR(Class-Specific Semantic Reconstruction)を提案する。
複数のデータセットで実験を行った結果,提案手法は閉集合認識と開集合認識の両方において優れた性能を発揮することがわかった。
論文 参考訳(メタデータ) (2022-07-05T16:25:34Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z) - Learning Autoencoders with Relational Regularization [89.53065887608088]
データ分散のオートエンコーダを学習するための新しいフレームワークを提案する。
エンフレレーショナル正規化によるモデルと対象分布の差を最小限にする
我々はこのフレームワークを2つのスケーラブルアルゴリズムで実装し、確率的および決定論的オートエンコーダの両方に適用する。
論文 参考訳(メタデータ) (2020-02-07T17:27:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。