論文の概要: Using Artificial Neural Networks to Determine Ontologies Most Relevant
to Scientific Texts
- arxiv url: http://arxiv.org/abs/2309.09203v1
- Date: Sun, 17 Sep 2023 08:08:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-19 16:50:35.918280
- Title: Using Artificial Neural Networks to Determine Ontologies Most Relevant
to Scientific Texts
- Title(参考訳): ニューラルネットワークを使って、科学的なテキストに最も関連するオントロジーを決定する
- Authors: Luk\'a\v{s} Korel, Alexander S. Behr, Norbert Kockmann and Martin
Hole\v{n}a
- Abstract要約: 本稿では,人工ネットワークを用いた最も関連性の高いテキストの発見の可能性について考察する。
提案手法の基本的な考え方は、ソーステキストファイルから代表を選択し、それをベクトル空間に埋め込むことである。
我々は変換器の組込み出力、特にランダムな森林を分類するために異なる分類器を検討した。
- 参考スコア(独自算出の注目度): 44.99833362998488
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: This paper provides an insight into the possibility of how to find ontologies
most relevant to scientific texts using artificial neural networks. The basic
idea of the presented approach is to select a representative paragraph from a
source text file, embed it to a vector space by a pre-trained fine-tuned
transformer, and classify the embedded vector according to its relevance to a
target ontology. We have considered different classifiers to categorize the
output from the transformer, in particular random forest, support vector
machine, multilayer perceptron, k-nearest neighbors, and Gaussian process
classifiers. Their suitability has been evaluated in a use case with ontologies
and scientific texts concerning catalysis research. From results we can say the
worst results have random forest. The best results in this task brought support
vector machine classifier.
- Abstract(参考訳): 本稿では,ニューラルネットワークを用いた科学文献に最も関連するオントロジーの探索の可能性について考察する。
提案手法の基本的な考え方は、ソーステキストファイルから代表段落を選択し、事前訓練された微調整トランスでベクトル空間に埋め込み、その埋め込みベクトルをターゲットオントロジーとの関連性に応じて分類することである。
変圧器からの出力を分類する分類器,特にランダムフォレスト,サポートベクターマシン,多層パーセプトロン,k-ネアレスト近傍,ガウス過程分類器について検討した。
その適合性は、触媒研究に関するオントロジーや科学文献のユースケースで評価されている。
結果から、最悪の結果はランダムな森林であると言える。
このタスクの最良の結果は、サポートベクターマシン分類器をもたらした。
関連論文リスト
- Novel Deep Neural Network Classifier Characterization Metrics with Applications to Dataless Evaluation [1.6574413179773757]
本研究では、サンプルデータセットを使わずに、ディープニューラルネットワーク(DNN)分類器のトレーニング品質を評価する。
CAFIR10およびCAFIR100データセットを用いて学習したResNet18の手法に関する実証的研究により、DNN分類器のデータレス評価が実際に可能であることを確認した。
論文 参考訳(メタデータ) (2024-07-17T20:40:46Z) - Forging the Forger: An Attempt to Improve Authorship Verification via Data Augmentation [52.72682366640554]
著者検証(英語: Authorship Verification, AV)とは、ある特定の著者によって書かれたか、別の人物によって書かれたのかを推測するテキスト分類タスクである。
多くのAVシステムは敵の攻撃に弱いことが示されており、悪意のある著者は、その書体スタイルを隠蔽するか、あるいは他の著者の書体を模倣することによって、積極的に分類者を騙そうとしている。
論文 参考訳(メタデータ) (2024-03-17T16:36:26Z) - Training toward significance with the decorrelated event classifier transformer neural network [0.0]
自然言語処理では、主要なニューラルネットワークアーキテクチャの1つがトランスフォーマーである。
この訓練されたネットワークは、強化された決定木やフィードフォワードネットワークよりも優れた性能を発揮することが判明した。
論文 参考訳(メタデータ) (2023-12-31T08:57:29Z) - Knowledge Trees: Gradient Boosting Decision Trees on Knowledge Neurons
as Probing Classifier [0.0]
変圧器ニューラルネットワーク層の出力表現におけるロジスティック回帰は、言語モデルの構文特性の探索に最もよく用いられる。
本研究では, 変圧器層の出力表現におけるロジスティック回帰を用いた場合よりも, 知識ニューロン層での勾配向上決定木を用いた方が有利であることを示す。
論文 参考訳(メタデータ) (2023-12-17T15:37:03Z) - Probabilistic Transformer: A Probabilistic Dependency Model for
Contextual Word Representation [52.270712965271656]
本稿では,文脈表現の新しいモデルを提案する。
モデルのグラフは変換器に似ており、依存関係と自己意識の対応性がある。
実験により,本モデルが小型・中型データセットのトランスフォーマーと競合することを示す。
論文 参考訳(メタデータ) (2023-11-26T06:56:02Z) - Khmer Text Classification Using Word Embedding and Neural Networks [0.0]
Khmerテキストの様々な分類手法について論じる。
Khmerワード埋め込みモデルは、ワードベクトル表現を構築するために、30万のKhmerワードコーパスで訓練される。
複数クラス・複数ラベルのテキスト分類タスクに対して,ニュース記事データセット上での異なるアプローチの性能を評価する。
論文 参考訳(メタデータ) (2021-12-13T15:57:32Z) - On the rate of convergence of a classifier based on a Transformer
encoder [55.41148606254641]
最適誤分類確率に対する分類器の誤分類確率の収束率を分析する。
この分類器は,アポテリオリ確率が適切な階層的構成モデルを満たす場合,次元性の呪いを回避することができる。
論文 参考訳(メタデータ) (2021-11-29T14:58:29Z) - Preliminary study on using vector quantization latent spaces for TTS/VC
systems with consistent performance [55.10864476206503]
本稿では,潜在言語埋め込みをモデル化するための量子化ベクトルの利用について検討する。
トレーニングにおいて、潜伏空間上の異なるポリシーを強制することにより、潜伏言語埋め込みを得ることができる。
実験の結果,ベクトル量子化法で構築した音声クローニングシステムは,知覚的評価の点でわずかに劣化していることがわかった。
論文 参考訳(メタデータ) (2021-06-25T07:51:35Z) - Be More with Less: Hypergraph Attention Networks for Inductive Text
Classification [56.98218530073927]
グラフニューラルネットワーク(GNN)は、研究コミュニティで注目され、この標準タスクで有望な結果を実証している。
成功にもかかわらず、それらのパフォーマンスは、単語間の高次相互作用をキャプチャできないため、実際は大部分が危険に晒される可能性がある。
本稿では,テキスト表現学習において,少ない計算量でより表現力の高いハイパーグラフアテンションネットワーク(HyperGAT)を提案する。
論文 参考訳(メタデータ) (2020-11-01T00:21:59Z) - An Intelligent CNN-VAE Text Representation Technology Based on Text
Semantics for Comprehensive Big Data [15.680918844684454]
畳み込みニューラルネットワーク(CNN)と可変オートエンコーダ(VAE)に基づくテキスト特徴表現モデルを提案する。
提案手法は,k-nearest neighbor (KNN), random forest (RF) および Support vector machine (SVM) 分類アルゴリズムにおいて優れる。
論文 参考訳(メタデータ) (2020-08-28T07:39:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。