論文の概要: Knowledge-integrated AutoEncoder Model
- arxiv url: http://arxiv.org/abs/2303.06721v1
- Date: Sun, 12 Mar 2023 18:00:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-14 17:19:28.007782
- Title: Knowledge-integrated AutoEncoder Model
- Title(参考訳): 知識統合オートエンコーダモデル
- Authors: Teddy Lazebnik, Liron Simon-Keren
- Abstract要約: 本稿では,外部知識源を学習プロセスに統合できるAEモデル開発のための新しいアプローチを提案する。
提案モデルは,3つの異なる科学分野の大規模データセットを用いて評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Data encoding is a common and central operation in most data analysis tasks.
The performance of other models, downstream in the computational process,
highly depends on the quality of data encoding. One of the most powerful ways
to encode data is using the neural network AutoEncoder (AE) architecture.
However, the developers of AE are not able to easily influence the produced
embedding space, as it is usually treated as a \textit{black box} technique,
which makes it uncontrollable and not necessarily has desired properties for
downstream tasks. In this paper, we introduce a novel approach for developing
AE models that can integrate external knowledge sources into the learning
process, possibly leading to more accurate results. The proposed
\methodNamefull{} (\methodName{}) model is able to leverage domain-specific
information to make sure the desired distance and neighborhood properties
between samples are preservative in the embedding space. The proposed model is
evaluated on three large-scale datasets from three different scientific fields
and is compared to nine existing encoding models. The results demonstrate that
the \methodName{} model effectively captures the underlying structures and
relationships between the input data and external knowledge, meaning it
generates a more useful representation. This leads to outperforming the rest of
the models in terms of reconstruction accuracy.
- Abstract(参考訳): データエンコーディングは、ほとんどのデータ分析タスクにおいて共通かつ中心的な操作である。
計算過程の下流にある他のモデルの性能は、データ符号化の品質に大きく依存する。
データをエンコードする最も強力な方法のひとつは、ニューラルネットワークのAutoEncoder(AE)アーキテクチャを使用することだ。
しかし、AE の開発者は、通常は \textit{black box} テクニックとして扱われるため、生成した埋め込み空間に簡単に影響を及ぼすことができない。
本稿では,外部知識源を学習プロセスに統合し,より正確な結果が得られるようなaeモデルを開発するための新しい手法を提案する。
提案された 'methodNamefull{} (\methodName{}) モデルは、ドメイン固有の情報を利用して、サンプル間の所望距離と近傍特性が埋め込み空間で保存可能であることを確認する。
提案モデルは,3つの異なる分野の大規模データセットを用いて評価し,既存の9つの符号化モデルと比較した。
その結果、 \methodname{}モデルは、入力データと外部知識の間の基盤となる構造と関係を効果的に捉え、より有用な表現を生成することが示される。
これにより、復元精度の点で他のモデルよりもパフォーマンスが向上する。
関連論文リスト
- Distribution-Aware Data Expansion with Diffusion Models [55.979857976023695]
本研究では,分散型拡散モデルに基づくトレーニングフリーなデータ拡張フレームワークであるDistDiffを提案する。
DistDiffは、オリジナルデータのみにトレーニングされたモデルと比較して、さまざまなデータセットの精度を一貫して向上させる。
論文 参考訳(メタデータ) (2024-03-11T14:07:53Z) - DatasetDM: Synthesizing Data with Perception Annotations Using Diffusion
Models [61.906934570771256]
多様な合成画像や知覚アノテーションを生成できる汎用データセット生成モデルを提案する。
本手法は,事前学習した拡散モデルに基づいて,テキスト誘導画像合成を知覚データ生成に拡張する。
拡散モデルのリッチ潜時コードはデコーダモジュールを用いて正確な認識アノテーションとして効果的に復号できることを示す。
論文 参考訳(メタデータ) (2023-08-11T14:38:11Z) - Improved Distribution Matching for Dataset Condensation [91.55972945798531]
本稿では,分布マッチングに基づく新しいデータセット凝縮法を提案する。
提案手法は,計算資源の少ない従来の最適化指向手法よりも優れている。
論文 参考訳(メタデータ) (2023-07-19T04:07:33Z) - Data Models for Dataset Drift Controls in Machine Learning With Optical
Images [8.818468649062932]
主な障害モードは、トレーニングデータとデプロイメントデータの違いによるパフォーマンス低下である。
既存のアプローチでは、関心の対象であるデータ(データ)の明示的なモデルは説明できない。
本研究では、画像データに対してそのようなデータモデルを構築する方法を示し、データセットのドリフトに関連する下流機械学習モデルの性能を制御する。
論文 参考訳(メタデータ) (2022-11-04T16:50:10Z) - Inference from Real-World Sparse Measurements [21.194357028394226]
実世界の問題は、しばしば複雑で非構造的な測定セットが伴うが、これはセンサーが空間または時間に狭く配置されているときに起こる。
セットからセットまで様々な位置で測定セットを処理し、どこででも読み出しを抽出できるディープラーニングアーキテクチャは、方法論的に困難である。
本稿では,適用性と実用的堅牢性に着目したアテンションベースモデルを提案する。
論文 参考訳(メタデータ) (2022-10-20T13:42:20Z) - Neural Attentive Circuits [93.95502541529115]
我々は、NAC(Neural Attentive Circuits)と呼ばれる汎用的でモジュラーなニューラルアーキテクチャを導入する。
NACは、ドメイン知識を使わずに、ニューラルネットワークモジュールのパラメータ化と疎結合を学習する。
NACは推論時に8倍のスピードアップを達成するが、性能は3%以下である。
論文 参考訳(メタデータ) (2022-10-14T18:00:07Z) - An Empirical Investigation of Commonsense Self-Supervision with
Knowledge Graphs [67.23285413610243]
大規模知識グラフから抽出した情報に基づく自己監督は、言語モデルの一般化を改善することが示されている。
本研究では,言語モデルに適用可能な合成データを生成するための知識サンプリング戦略とサイズの影響について検討する。
論文 参考訳(メタデータ) (2022-05-21T19:49:04Z) - Online Deep Learning based on Auto-Encoder [4.128388784932455]
オートエンコーダ(ODLAE)に基づく2段階オンライン深層学習を提案する。
復元損失を考慮した自動エンコーダを用いて,インスタンスの階層的潜在表現を抽出する。
我々は,各隠れ層の分類結果を融合して得られる出力レベル融合戦略と,隠れ層の出力を融合させる自己保持機構を利用した特徴レベル融合戦略の2つの融合戦略を考案した。
論文 参考訳(メタデータ) (2022-01-19T02:14:57Z) - Interpretable and Low-Resource Entity Matching via Decoupling Feature
Learning from Decision Making [22.755892575582788]
Entity Matchingは、同じ現実世界のオブジェクトを表すエンティティレコードを認識することを目的としている。
異種情報融合(HIF)とキー属性ツリー(KAT)誘導からなる新しいEMフレームワークを提案する。
提案手法は効率が高く,ほとんどの場合SOTA EMモデルより優れている。
論文 参考訳(メタデータ) (2021-06-08T08:27:31Z) - Relation-Guided Representation Learning [53.60351496449232]
本稿では,サンプル関係を明示的にモデル化し,活用する表現学習手法を提案する。
私たちのフレームワークは、サンプル間の関係をよく保存します。
サンプルをサブスペースに埋め込むことにより,本手法が大規模なサンプル外問題に対処可能であることを示す。
論文 参考訳(メタデータ) (2020-07-11T10:57:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。