論文の概要: Automated and Explainable Ontology Extension Based on Deep Learning: A
Case Study in the Chemical Domain
- arxiv url: http://arxiv.org/abs/2109.09202v1
- Date: Sun, 19 Sep 2021 19:37:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-22 07:53:44.588382
- Title: Automated and Explainable Ontology Extension Based on Deep Learning: A
Case Study in the Chemical Domain
- Title(参考訳): 深層学習に基づく自動・説明可能なオントロジー拡張:化学領域を事例として
- Authors: Adel Memariani, Martin Glauer, Fabian Neuhaus, Till Mossakowski and
Janna Hastings
- Abstract要約: 本稿では,大規模ドメインの自動オントロジー拡張のための新しい方法論を提案する。
我々は,ChEBIオントロジーとそれらが属するクラスから,葉ノード上のトランスフォーマーに基づくディープラーニングモデルを訓練した。
提案モデルでは,F1総合スコアが0.80となり,前回よりも6ポイント向上した。
- 参考スコア(独自算出の注目度): 0.9449650062296822
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reference ontologies provide a shared vocabulary and knowledge resource for
their domain. Manual construction enables them to maintain a high quality,
allowing them to be widely accepted across their community. However, the manual
development process does not scale for large domains. We present a new
methodology for automatic ontology extension and apply it to the ChEBI
ontology, a prominent reference ontology for life sciences chemistry. We
trained a Transformer-based deep learning model on the leaf node structures
from the ChEBI ontology and the classes to which they belong. The model is then
capable of automatically classifying previously unseen chemical structures. The
proposed model achieved an overall F1 score of 0.80, an improvement of 6
percentage points over our previous results on the same dataset. Additionally,
we demonstrate how visualizing the model's attention weights can help to
explain the results by providing insight into how the model made its decisions.
- Abstract(参考訳): 参照オントロジーは、そのドメインに対して共有語彙と知識リソースを提供します。
手作業による構築により、高品質の維持が可能になり、コミュニティ全体で広く受け入れられるようになる。
しかし、手動開発プロセスは大規模ドメインではスケールしない。
本稿では, 生命化学のオントロジーとして注目されるChEBIオントロジーに, 自動オントロジー拡張のための新しい方法論を提案する。
我々は,ChEBIオントロジーとそれらが属するクラスから,葉ノード構造に基づくトランスフォーマーに基づくディープラーニングモデルを訓練した。
このモデルでは、これまで見えない化学構造を自動的に分類することができる。
提案モデルでは,F1スコア0.80を達成し,前回の結果よりも6ポイント向上した。
さらに,モデルの注意重みの可視化が,モデルの意思決定方法に関する洞察を提供することによって,結果を説明する上でどのように役立つかを実証する。
関連論文リスト
- Large Language Models for Scholarly Ontology Generation: An Extensive Analysis in the Engineering Field [0.0]
本稿では,異なる研究トピック間の意味的関係を識別する大規模モデルの能力について分析する。
我々はそのタスクを評価するためにIEEE Thesaurusに基づく金の標準を開発した。
Mixtral-8x7B、Dolphin-Mistral、Claude 3-7Bなど、いくつかの優れた結果が得られた。
論文 参考訳(メタデータ) (2024-12-11T10:11:41Z) - How do Machine Learning Models Change? [7.543685248926161]
本研究は,Huging Face (HF) 上の5万モデルから20万件以上のコミットと1200件のリリースを,リポジトリマイニングと縦断解析の両方を用いて調査する。
コミットを分類するためにML変更分類を複製して拡張し、ベイジアンネットワークを使用してコミットとリリースのアクティビティのパターンを時間とともに明らかにします。
その結果,コミット活動はCRISP-DMなどの確立したデータサイエンス方法論と一致し,反復的改善と継続的改善が強調された。
さらに、リリースパターンは重要なアップデート、特にドキュメントにおいて、細かい変更とマイルストーンベースのリリースを区別する傾向があります。
論文 参考訳(メタデータ) (2024-11-14T18:14:32Z) - End-to-End Ontology Learning with Large Language Models [11.755755139228219]
大規模言語モデル(LLM)は、オントロジー学習の様々なサブタスクを解決するために応用されている。
我々は、オントロジーの分類学的バックボーンをスクラッチから構築する汎用的でスケーラブルな方法であるOLLMによって、このギャップに対処する。
標準的なメトリクスとは対照的に、私たちのメトリクスは、グラフ間のより堅牢な構造的距離測定を定義するためにディープラーニング技術を使用します。
私たちのモデルは、arXivのような新しいドメインに効果的に適用できます。
論文 参考訳(メタデータ) (2024-10-31T02:52:39Z) - Aggregated Knowledge Model: Enhancing Domain-Specific QA with Fine-Tuned and Retrieval-Augmented Generation Models [0.0]
本稿では,クローズドドメイン質問応答システム(QA)の新たなアプローチを提案する。
ローレンス・バークレー国立研究所(LBL)科学情報技術(ScienceIT)ドメインの特定のニーズに焦点を当てている。
論文 参考訳(メタデータ) (2024-10-24T00:49:46Z) - Pruning neural network models for gene regulatory dynamics using data and domain knowledge [24.670514977455202]
本稿では,モデルフィッティングにおけるドメイン固有構造情報を用いてネットワークプルーニングをガイドするフレームワークであるDASHを提案する。
DASHは、遺伝子相互作用パートナーに関する知識を用いて、一般的な刈り取り法よりも大きなマージンで優れていることを示す。
論文 参考訳(メタデータ) (2024-03-05T23:02:55Z) - Towards Graph Foundation Models: A Survey and Beyond [66.37994863159861]
ファンデーションモデルは、さまざまな人工知能アプリケーションにおいて重要なコンポーネントとして現れてきた。
基礎モデルがグラフ機械学習研究者を一般化し、適応させる能力は、新しいグラフ学習パラダイムを開発する可能性について議論する。
本稿では,グラフ基礎モデル(GFM)の概念を紹介し,その重要な特徴と基礎技術について概説する。
論文 参考訳(メタデータ) (2023-10-18T09:31:21Z) - Universal Domain Adaptation from Foundation Models: A Baseline Study [58.51162198585434]
基礎モデルを用いた最先端UniDA手法の実証的研究を行った。
CLIPモデルからターゲット知識を抽出するためのパラメータフリーな手法であるtextitCLIP 蒸留を導入する。
単純な手法ではあるが、ほとんどのベンチマークタスクでは従来の手法よりも優れている。
論文 参考訳(メタデータ) (2023-05-18T16:28:29Z) - Model LEGO: Creating Models Like Disassembling and Assembling Building Blocks [53.09649785009528]
本稿では,新しいモデルを得るためのトレーニングを必要としないパラダイムについて検討する。
生体視覚系における受容野にインスパイアされたCNNの誕生と同様、モデル分解と組み立てを提案する。
モデル組立には、特定のタスクに適した新しいモデルを構築するために、アライメントパディング戦略とパラメータスケーリング戦略を提案する。
論文 参考訳(メタデータ) (2022-03-25T05:27:28Z) - Polynomial Networks in Deep Classifiers [55.90321402256631]
我々は深層ニューラルネットワークの研究を統一的な枠組みで行った。
私たちのフレームワークは、各モデルの誘導バイアスに関する洞察を提供します。
提案モデルの有効性を,標準画像および音声分類ベンチマークで評価した。
論文 参考訳(メタデータ) (2021-04-16T06:41:20Z) - S2RMs: Spatially Structured Recurrent Modules [105.0377129434636]
モジュール構造とテンポラル構造の両方を同時に活用できる動的構造を利用するための一歩を踏み出します。
我々のモデルは利用可能なビューの数に対して堅牢であり、追加のトレーニングなしで新しいタスクに一般化できる。
論文 参考訳(メタデータ) (2020-07-13T17:44:30Z) - Interpretable Learning-to-Rank with Generalized Additive Models [78.42800966500374]
ラーニング・ツー・ランクのモデルの解釈可能性は、非常に重要でありながら、比較的過小評価されている研究分野である。
解釈可能なランキングモデルの最近の進歩は、主に既存のブラックボックスランキングモデルに対するポストホックな説明の生成に焦点を当てている。
一般化加法モデル(GAM)をランキングタスクに導入することにより,本質的に解釈可能な学習 to ランクの基盤を築いた。
論文 参考訳(メタデータ) (2020-05-06T01:51:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。