論文の概要: Encoding architecture algebra
- arxiv url: http://arxiv.org/abs/2410.11776v1
- Date: Tue, 15 Oct 2024 16:56:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-16 14:04:46.188347
- Title: Encoding architecture algebra
- Title(参考訳): アーキテクチャ代数の符号化
- Authors: Stephane Bersier, Xinyi Chen-Lin,
- Abstract要約: 本稿では,データ構造を適切に考慮した入力エンコーディングアーキテクチャの構築手法を提案する。
より型豊かな機械学習を実現するためのステップを提供する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Despite the wide variety of input types in machine learning, this diversity is often not fully reflected in their representations or model architectures, leading to inefficiencies throughout a model's lifecycle. This paper introduces an algebraic approach to constructing input-encoding architectures that properly account for the data's structure, providing a step toward achieving more typeful machine learning.
- Abstract(参考訳): 機械学習の多様な入力型にもかかわらず、この多様性は表現やモデルアーキテクチャに完全に反映されないことが多く、モデルのライフサイクルを通して非効率をもたらす。
本稿では,データ構造を適切に考慮した入力エンコーディングアーキテクチャを構築するための代数的アプローチを提案する。
関連論文リスト
- Autoencoder-based General Purpose Representation Learning for Customer
Embedding [0.0]
我々は、汎用的な埋め込みを構築するためのオートエンコーダベースのフレームワークを設計し、異なるオートエンコーダアーキテクチャの性能を評価し、高度に複雑なデータの埋め込みにおいて、より単純なモデルよりも優れていることを示す。
当社のフレームワークを適用して、任意のモデルで使用するためにAWSユーザを表すプラグイン、リッチ、匿名の埋め込みを生成し、開発時間の最大45%を節約し、ダウンストリームモデルの大幅な改善を観察します。
論文 参考訳(メタデータ) (2024-02-28T08:53:20Z) - Learning Structure-Aware Representations of Dependent Types [3.7794090250290187]
Agdaは依存型プログラミング言語であり、証明アシスタントである。
本稿では,Agdaエコシステムを機械学習領域に拡張する。
我々は,Agdaプログラムプロテクションの新しいデータセットを導入し,リリースする。
論文 参考訳(メタデータ) (2024-02-03T09:56:37Z) - Dynamic Latent Separation for Deep Learning [67.62190501599176]
機械学習の中核的な問題は、複雑なデータに対するモデル予測のための表現力のある潜在変数を学習することである。
本稿では,表現性を向上し,部分的解釈を提供し,特定のアプリケーションに限定されないアプローチを開発する。
論文 参考訳(メタデータ) (2022-10-07T17:56:53Z) - A Review of Sparse Expert Models in Deep Learning [23.721204843236006]
スパースエキスパートモデル(Sparse expert model)は、ディープラーニングの一般的なアーキテクチャとして再開発される30年前のコンセプトだ。
本稿では,スパースエキスパートモデルの概念を概観し,共通アルゴリズムの基本的記述を提供し,深層学習時代の進歩を文脈化する。
論文 参考訳(メタデータ) (2022-09-04T18:00:29Z) - Efficient Sub-structured Knowledge Distillation [52.5931565465661]
定式化においてよりシンプルで,既存のアプローチよりもはるかに効率的にトレーニングできるアプローチを提案する。
教師モデルから学生モデルへの知識の伝達は、出力空間全体ではなく、すべてのサブ構造上の予測を局所的に一致させることで行う。
論文 参考訳(メタデータ) (2022-03-09T15:56:49Z) - Model-agnostic multi-objective approach for the evolutionary discovery
of mathematical models [55.41644538483948]
現代のデータ科学では、どの部分がより良い結果を得るために置き換えられるかというモデルの性質を理解することがより興味深い。
合成データ駆動型モデル学習において,多目的進化最適化を用いてアルゴリズムの所望特性を求める。
論文 参考訳(メタデータ) (2021-07-07T11:17:09Z) - Redefining Neural Architecture Search of Heterogeneous Multi-Network
Models by Characterizing Variation Operators and Model Components [71.03032589756434]
複素領域における異なる変動演算子の効果について検討する。
モデルの複雑さと性能に影響を及ぼす変化演算子と、それを構成する異なる部分の質を推定する様々な指標に依存するモデルの両方を特徴付ける。
論文 参考訳(メタデータ) (2021-06-16T17:12:26Z) - GroupBERT: Enhanced Transformer Architecture with Efficient Grouped
Structures [57.46093180685175]
トランスフォーマー層の構造を改良し,より効率的なアーキテクチャを実現する。
自己認識モジュールを補完する畳み込みモジュールを追加し、局所的およびグローバルな相互作用の学習を分離する。
得られたアーキテクチャを言語表現学習に適用し、異なるスケールのBERTモデルと比較して優れた性能を示す。
論文 参考訳(メタデータ) (2021-06-10T15:41:53Z) - XY Neural Networks [0.0]
XYモデルの非線形ブロックに基づいて,機械学習のための複雑な構造を構築する方法を示す。
最後のターゲットは、複雑なタスクを実行できるディープラーニングアーキテクチャを再現することである。
論文 参考訳(メタデータ) (2021-03-31T17:47:10Z) - A Meta-embedding-based Ensemble Approach for ICD Coding Prediction [64.42386426730695]
国際疾病分類 (icd) は、世界中で臨床コーディングに使われているデファクトコードである。
これらのコードにより、医療提供者は償還を請求し、診断情報の効率的な保管と検索を容易にします。
提案手法は,日常的な医学データと科学論文の外部知識を用いて,効果的に単語ベクトルを訓練することにより,神経モデルの性能を高める。
論文 参考訳(メタデータ) (2021-02-26T17:49:58Z) - Structure by Architecture: Structured Representations without
Regularization [31.75200752252397]
生成モデルなどの下流タスクにオートエンコーダを用いた自己教師型表現学習の課題について検討する。
我々はアグレッシブな正規化を必要とせずに構造化表現を学習できる新しいオートエンコーダアーキテクチャを設計する。
これらのモデルが、生成、絡み合い、外挿を含む様々な下流タスクの結果を改善する表現をいかに学習するかを実証する。
論文 参考訳(メタデータ) (2020-06-14T04:37:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。