論文の概要: DOLCE: A Descriptive Ontology for Linguistic and Cognitive Engineering
- arxiv url: http://arxiv.org/abs/2308.01597v1
- Date: Thu, 3 Aug 2023 08:03:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-04 14:57:50.687246
- Title: DOLCE: A Descriptive Ontology for Linguistic and Cognitive Engineering
- Title(参考訳): DOLCE: 言語工学と認知工学のための記述オントロジー
- Authors: Stefano Borgo, Roberta Ferrario, Aldo Gangemi, Nicola Guarino, Claudio
Masolo, Daniele Porello, Emilio M. Sanfilippo, Laure Vieu
- Abstract要約: DOLCEは、ビータタイズされた最初のトップレベル(基礎)オントロジーである。
それは、社会技術システム、製造業、金融取引、文化遺産など多様な分野において、日常生活で人間が悪用しているような、現実の共通の見方をモデル化することを目的としている。
- 参考スコア(独自算出の注目度): 0.7255908480712145
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: DOLCE, the first top-level (foundational) ontology to be axiomatized, has
remained stable for twenty years and today is broadly used in a variety of
domains. DOLCE is inspired by cognitive and linguistic considerations and aims
to model a commonsense view of reality, like the one human beings exploit in
everyday life in areas as diverse as socio-technical systems, manufacturing,
financial transactions and cultural heritage. DOLCE clearly lists the
ontological choices it is based upon, relies on philosophical principles, is
richly formalized, and is built according to well-established ontological
methodologies, e.g. OntoClean. Because of these features, it has inspired most
of the existing top-level ontologies and has been used to develop or improve
standards and public domain resources (e.g. CIDOC CRM, DBpedia and WordNet).
Being a foundational ontology, DOLCE is not directly concerned with domain
knowledge. Its purpose is to provide the general categories and relations
needed to give a coherent view of reality, to integrate domain knowledge, and
to mediate across domains. In these 20 years DOLCE has shown that applied
ontologies can be stable and that interoperability across reference and domain
ontologies is a reality. This paper briefly introduces the ontology and shows
how to use it on a few modeling cases.
- Abstract(参考訳): 公理化される最初のトップレベル(基礎)オントロジーであるDOLCEは、20年間安定しており、今日では様々な領域で広く使われている。
DOLCEは認知的・言語的考察にインスパイアされ、社会技術システム、製造業、金融取引、文化遺産など多様な分野の日常生活において人間が悪用しているような、現実の常識的な視点をモデル化することを目的としている。
DOLCEは、その基礎となる存在論的選択を明確にリストし、哲学的原理に依存し、リッチに形式化され、OntoCleanのような確立された存在論的方法論に従って構築されている。
これらの特徴のため、既存のトップレベルのオントロジーの多くにインスピレーションを与え、標準やパブリックドメインリソース(例えばCIDOC CRM、DBpedia、WordNet)の開発や改善に使われてきた。
基礎オントロジーであるため、DOLCEはドメイン知識に直接関係しない。
その目的は、現実のコヒーレントな視点を与え、ドメイン知識を統合し、ドメイン間の仲介を行うために必要な一般的なカテゴリと関係を提供することである。
この20年間、DOLCEは適用オントロジーが安定しており、参照オントロジーとドメインオントロジーの相互運用性が現実であることを示してきた。
本稿では、オントロジーを簡潔に紹介し、いくつかのモデリングケースでの使い方を示す。
関連論文リスト
- Ontology Embedding: A Survey of Methods, Applications and Resources [54.3453925775069]
オントロジはドメイン知識とメタデータを表現するために広く使われている。
1つの簡単な解決策は、統計分析と機械学習を統合することである。
埋め込みに関する多くの論文が出版されているが、体系的なレビューの欠如により、研究者はこの分野の包括的な理解を妨げている。
論文 参考訳(メタデータ) (2024-06-16T14:49:19Z) - KNOW: A Real-World Ontology for Knowledge Capture with Large Language Models [0.0]
KNOWは、パーソナルAIアシスタントなどの実世界の生成AIユースケースにおいて、大きな言語モデル(LLM)を拡張するために日々の知識を捉えるように設計された最初のオントロジーである。
モデル化された概念の初期の範囲は、時空(場所、イベント)と社会的(人、グループ、組織)に限られています。
論文 参考訳(メタデータ) (2024-05-30T09:32:14Z) - Ontology for Conceptual Modeling: Reality of What Thinging Machines Talk
About, e.g., Information [0.0]
本稿では,概念モデリングの基礎に基づく図式開発のための学際的な研究手法を開発する。
オントロジーのオフショア調達を哲学から逃れ、CMに移植する試みである。
結果は、情報を定義し、その性質を理解するための有望なアプローチを示すように思われる。
論文 参考訳(メタデータ) (2023-08-16T03:21:27Z) - Domain Specialization as the Key to Make Large Language Models Disruptive: A Comprehensive Survey [100.24095818099522]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野を著しく進歩させた。
広範囲のアプリケーションに対して、非常に有用でタスクに依存しない基盤を提供する。
しかし、特定の領域における洗練された問題を解決するために直接LLMを適用することは、多くのハードルを満たす。
論文 参考訳(メタデータ) (2023-05-30T03:00:30Z) - A Diversity-Aware Domain Development Methodology [0.0]
この論文は、上記の表現多様性の欠点を根拠に、3倍の解法を提案する。
i) 再利用可能な概念をレンダリングするための基本的なパイプライン、(ii) テレロジーと呼ばれる最小限の知識モデルの最初の特徴付け、(iii) 多様性を意識したドメイン開発を活用したソリューションのためのフレキシブルで再利用可能な方法論を含む。
論文 参考訳(メタデータ) (2022-08-27T17:58:47Z) - GENOME: A GENeric methodology for Ontological Modelling of Epics [0.0]
genOMEはエピックの反復的存在論的モデリングのための最初の専用の方法論である。
それは、叙事詩の標準規範、知識モデリングのベストプラクティス、アプリケーション満足度規範、認知的生成問題という超学際的な基礎に根ざしている。
また、再利用やゼロから知識モデリングの選択肢を統合するのに十分な柔軟性を持つ最初の方法論でもある。
論文 参考訳(メタデータ) (2022-02-13T15:52:54Z) - WenLan 2.0: Make AI Imagine via a Multimodal Foundation Model [74.4875156387271]
我々は,膨大なマルチモーダル(視覚的・テキスト的)データを事前学習した新しい基礎モデルを開発する。
そこで本研究では,様々な下流タスクにおいて,最先端の成果が得られることを示す。
論文 参考訳(メタデータ) (2021-10-27T12:25:21Z) - Open Domain Generalization with Domain-Augmented Meta-Learning [83.59952915761141]
オープンドメイン一般化(OpenDG)の新しい実践的問題について研究する。
本稿では,オープンドメイン一般化表現を学ぶためのメタ学習フレームワークを提案する。
種々のマルチドメインデータセットの実験結果から、提案したドメイン拡張メタラーニング(DAML)が、未確認ドメイン認識の先行手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-04-08T09:12:24Z) - UmlsBERT: Clinical Domain Knowledge Augmentation of Contextual
Embeddings Using the Unified Medical Language System Metathesaurus [73.86656026386038]
事前学習プロセス中にドメイン知識を統合するコンテキスト埋め込みモデルであるUmlsBERTを紹介する。
これらの2つの戦略を適用することで、UmlsBERTは、臨床領域の知識を単語埋め込みにエンコードし、既存のドメイン固有モデルより優れている。
論文 参考訳(メタデータ) (2020-10-20T15:56:31Z) - On the Merging of Domain-Specific Heterogeneous Ontologies using Wordnet
and Web Pattern-based Queries [0.0]
我々は,コミュニティ間の共通ドメインの形式的,明示的,共有的な概念化と理解の提供を目指しています。
オントロジーは特定の領域の概念とその制約を明示的に定義することができる。
論文 参考訳(メタデータ) (2020-04-30T05:03:50Z) - DomBERT: Domain-oriented Language Model for Aspect-based Sentiment
Analysis [71.40586258509394]
本研究では、ドメイン内コーパスと関連するドメインコーパスの両方から学習するためのBERTの拡張であるDomBERTを提案する。
アスペクトベース感情分析における課題の整理実験を行い、有望な結果を示す。
論文 参考訳(メタデータ) (2020-04-28T21:07:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。