論文の概要: Loss Terms and Operator Forms of Koopman Autoencoders
- arxiv url: http://arxiv.org/abs/2412.04578v1
- Date: Thu, 05 Dec 2024 19:48:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-09 15:55:13.477087
- Title: Loss Terms and Operator Forms of Koopman Autoencoders
- Title(参考訳): クープマンオートエンコーダの損失項と演算子形式
- Authors: Dustin Enyeart, Guang Lin,
- Abstract要約: クープマンオートエンコーダは演算子学習において一般的なアーキテクチャである。
損失関数と演算子の形式は文献によって大きく異なる。
本稿では,これらの選択肢について,公正かつ体系的な研究を行う。
- 参考スコア(独自算出の注目度): 6.03891813540831
- License:
- Abstract: Koopman autoencoders are a prevalent architecture in operator learning. But, the loss functions and the form of the operator vary significantly in the literature. This paper presents a fair and systemic study of these options. Furthermore, it introduces novel loss terms.
- Abstract(参考訳): クープマンオートエンコーダは演算子学習において一般的なアーキテクチャである。
しかし、損失関数と演算子の形式は文献によって大きく異なる。
本稿では,これらの選択肢について,公正かつ体系的な研究を行う。
さらに、新たな損失項も導入されている。
関連論文リスト
- Autoencoding for the 'Good Dictionary' of eigen pairs of the Koopman
Operator [0.0]
本論文では,深層学習手法であるディープオートエンコーダを用いて,コープマン固有ベクトルの計算に先立って,生データ上に非線形な幾何変換を行う。
高次元時系列データを扱うために、Takesの時間遅延埋め込みを前処理技術として提示する。
論文 参考訳(メタデータ) (2023-06-08T14:21:01Z) - Tram: A Token-level Retrieval-augmented Mechanism for Source Code Summarization [76.57699934689468]
ニューラルモデルの性能を高めるために,デコーダ側で詳細なTokenレベル検索強化機構(Tram)を提案する。
文脈的コードセマンティクスの取得におけるトークンレベルの検索の課題を克服するために,コードセマンティクスを個々の要約トークンに統合することを提案する。
論文 参考訳(メタデータ) (2023-05-18T16:02:04Z) - Noise-Robust Dense Retrieval via Contrastive Alignment Post Training [89.29256833403167]
Contrastive Alignment POst Training (CAPOT) は、指数再生を必要とせず、モデルロバスト性を改善する高効率な微調整法である。
CAPOTはドキュメントエンコーダを凍結することで堅牢な検索を可能にし、クエリエンコーダはノイズの多いクエリを修正されていないルートに整列させる。
MSMARCO、Natural Questions、Trivia QAパス検索のCAPOTノイズ変動を評価し、CAPOTがオーバーヘッドを伴わないデータ増大に類似した影響があることを発見した。
論文 参考訳(メタデータ) (2023-04-06T22:16:53Z) - A survey and taxonomy of loss functions in machine learning [51.35995529962554]
本稿では, 回帰, 分類, 生成モデル, ランキング, エネルギーベースモデリングなど, 主要なアプリケーションにまたがる最も広く使われている損失関数について概観する。
直感的な分類法で構築された43個の個別の損失関数を導入し,それらの理論的基礎,特性,最適な適用状況を明らかにした。
論文 参考訳(メタデータ) (2023-01-13T14:38:24Z) - On a Mechanism Framework of Autoencoders [0.0]
本稿では,オートエンコーダの機構に関する理論的枠組みを提案する。
ReLUオートエンコーダの結果は、いくつかの非ReLUケースに一般化される。
PCAや決定木と比較して,次元の縮小と分類における(一般化された)オートエンコーダの利点が示された。
論文 参考訳(メタデータ) (2022-08-15T03:51:40Z) - An Introduction to Autoencoders [0.0]
本稿では,オートエンコーダの基本概念と数学について述べる。
まず、オートエンコーダの一般的な紹介から始め、出力層におけるアクティベーション関数の役割と損失関数について論じる。
論文 参考訳(メタデータ) (2022-01-11T11:55:32Z) - Autoencoding Variational Autoencoder [56.05008520271406]
我々は,この行動が学習表現に与える影響と,自己整合性の概念を導入することでそれを修正する結果について検討する。
自己整合性アプローチで訓練されたエンコーダは、敵攻撃による入力の摂動に対して頑健な(無神経な)表現につながることを示す。
論文 参考訳(メタデータ) (2020-12-07T14:16:14Z) - Auto Seg-Loss: Searching Metric Surrogates for Semantic Segmentation [56.343646789922545]
そこで本研究では,各計量に対する相異なるサロゲート損失を探索することにより,計量固有損失関数の設計を自動化することを提案する。
PASCAL VOCとCityscapesの実験では、探索されたサロゲート損失は手動で設計した損失関数よりも優れていた。
論文 参考訳(メタデータ) (2020-10-15T17:59:08Z) - Autoencoders [43.991924654575975]
オートエンコーダ(autoencoder)は、主に入力を圧縮された意味のある表現にエンコードし、再構成された入力が元の入力と可能な限り類似するように復号するように設計されたニューラルネットワークの特定のタイプである。
この章は、主に現在使われている様々な種類のオートエンコーダについて調査する。
論文 参考訳(メタデータ) (2020-03-12T19:38:47Z) - Improving Image Autoencoder Embeddings with Perceptual Loss [0.1529342790344802]
本研究はエンコーダの埋め込みの観点から知覚的損失を考察する。
オートエンコーダは、知覚的損失を使用して、3つの異なるコンピュータビジョンデータセットからイメージを埋め込むように訓練されている。
その結果、小型の特徴の物体位置決め作業において、知覚的損失は第10因子による結果を改善することができることがわかった。
論文 参考訳(メタデータ) (2020-01-10T13:48:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。