論文の概要: OntView: What you See is What you Meant
- arxiv url: http://arxiv.org/abs/2507.13759v1
- Date: Fri, 18 Jul 2025 09:06:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-21 20:43:26.236921
- Title: OntView: What you See is What you Meant
- Title(参考訳): OntView: 目に見えるものは何か?
- Authors: Carlos Bobed, Carlota Quintana, Eduardo Mena, Jorge Bobed, Fernando Bobillo,
- Abstract要約: OntViewは、ユーザフレンドリな視覚化を通じて、概念とその定義を直感的に表現する。
OntViewはコミュニティ全体のオープンソースライセンスとともにリリースされた。
- 参考スコア(独自算出の注目度): 40.572754656757475
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In the field of knowledge management and computer science, ontologies provide a structured framework for modeling domain-specific knowledge by defining concepts and their relationships. However, the lack of tools that provide effective visualization is still a significant challenge. While numerous ontology editors and viewers exist, most of them fail to graphically represent ontology structures in a meaningful and non-overwhelming way, limiting users' ability to comprehend dependencies and properties within large ontological frameworks. In this paper, we present OntView, an ontology viewer that is designed to provide users with an intuitive visual representation of ontology concepts and their formal definitions through a user-friendly interface. Building on the use of a DL reasoner, OntView follows a "What you see is what you meant" paradigm, showing the actual inferred knowledge. One key aspect for this is its ability to visualize General Concept Inclusions (GCI), a feature absent in existing visualization tools. Moreover, to avoid a possible information overload, OntView also offers different ways to show a simplified view of the ontology by: 1) creating ontology summaries by assessing the importance of the concepts (according to different available algorithms), 2) focusing the visualization on the existing TBox elements between two given classes and 3) allowing to hide/show different branches in a dynamic way without losing the semantics. OntView has been released with an open-source license for the whole community.
- Abstract(参考訳): 知識管理と計算機科学の分野において、オントロジーは概念とその関係を定義することによってドメイン固有の知識をモデル化するための構造化されたフレームワークを提供する。
しかし、効果的な視覚化を提供するツールがないことは、依然として大きな課題である。
多くのオントロジーエディタやビューアが存在するが、その多くは意味のある非圧倒的な方法でオントロジー構造をグラフィカルに表現することができず、大きなオントロジーフレームワーク内の依存関係やプロパティを理解する能力を制限する。
本稿では,オントロジー概念の直感的な視覚表現と,ユーザフレンドリーなインターフェースによる形式定義を提供するオントロジービューアOntViewを提案する。
DL推論子の使用に基づいて、OntViewは"あなたが何を意味しているか"というパラダイムに従い、実際の推論された知識を示す。
これに対する重要な側面の1つは、既存の視覚化ツールにない機能であるGeneral Concept Inclusions(GCI)を視覚化する機能である。
さらに、情報過負荷を避けるために、OntViewは、オントロジーを単純化したビューを表示するさまざまな方法を提供する。
1 概念の重要性(利用可能な異なるアルゴリズムによる)を評価することにより、オントロジー要約を作成すること。
2)2つのクラス間で既存のTBox要素を視覚化することに集中すること
3) セマンティクスを失うことなく、異なるブランチを動的に隠したり、見せたりできる。
OntViewはコミュニティ全体のオープンソースライセンスとともにリリースされた。
関連論文リスト
- CTRL-O: Language-Controllable Object-Centric Visual Representation Learning [30.218743514199016]
オブジェクト中心表現学習は、視覚シーンを「スロット」または「オブジェクトファイル」と呼ばれる固定サイズのベクトルに分解することを目的としている。
現在のオブジェクト中心モデルは、ユーザがどのオブジェクトが表現されているかをガイドすることなく、事前に考えられたオブジェクトの理解に基づいて表現を学習する。
言語記述の条件付けによるスロット表現に対するユーザ指向制御のための新しい手法を提案する。
論文 参考訳(メタデータ) (2025-03-27T17:53:50Z) - Beyond Embeddings: The Promise of Visual Table in Visual Reasoning [38.558250602212425]
視覚的推論に適した新しい視覚表現形式である視覚表を提案する。
ビジュアルテーブルは、視覚シーンの階層的な記述として構築され、シーン記述と複数のオブジェクト中心の記述が特徴である。
それらは、視覚的推論に不可欠な、インスタンスレベルの世界知識と詳細な属性を提供します。
論文 参考訳(メタデータ) (2024-03-27T04:49:23Z) - ViStruct: Visual Structural Knowledge Extraction via Curriculum Guided
Code-Vision Representation [82.88378582161717]
最先端の視覚言語モデル(VLM)は、構造的知識抽出において限られた性能を持つ。
本稿では,視覚的構造的知識抽出のためのVLM学習フレームワークViStructを提案する。
論文 参考訳(メタデータ) (2023-11-22T09:23:34Z) - Visual Superordinate Abstraction for Robust Concept Learning [80.15940996821541]
概念学習は言語意味論と結びついた視覚表現を構成する。
視覚概念の本質的な意味的階層を探索する失敗のボトルネックについて説明する。
本稿では,意味認識型視覚サブ空間を明示的にモデル化するビジュアル・スーパーオーディネート・抽象化・フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-28T14:27:38Z) - K-LITE: Learning Transferable Visual Models with External Knowledge [242.3887854728843]
K-LITE (Knowledge-augmented Language- Image Training and Evaluation) は、外部知識を活用して伝達可能な視覚システムを構築する戦略である。
トレーニングでは、WordNetとWiktionaryの知識で自然言語のエンティティを豊かにする。
評価において、自然言語は外部知識で拡張され、学習された視覚概念を参照するために使用される。
論文 参考訳(メタデータ) (2022-04-20T04:47:01Z) - Building a visual semantics aware object hierarchy [0.0]
視覚的意味論を意識したオブジェクト階層を構築するための新しい教師なし手法を提案する。
この論文の直感は、概念が階層的に組織化されている現実世界の知識表現から来ています。
評価は2つの部分から構成され、まず、構築された階層をオブジェクト認識タスクに適用し、その上で、視覚的階層と既存の語彙階層を比較して、提案手法の有効性を示す。
論文 参考訳(メタデータ) (2022-02-26T00:10:21Z) - One-shot Scene Graph Generation [130.57405850346836]
ワンショットシーングラフ生成タスクに対して,複数の構造化知識(関係知識知識)を提案する。
提案手法は既存の最先端手法よりも大きなマージンで優れる。
論文 参考訳(メタデータ) (2022-02-22T11:32:59Z) - Contextualizing Meta-Learning via Learning to Decompose [125.76658595408607]
本稿では,メタ学習型サポート・ツー・ターゲット戦略の文脈化を図るために,ネットワーク(LeadNet)を分解する学習を提案する。
LeadNetは、コンテキスト間の比較をポリセムの埋め込みに組み込むことで、右に関連付けられた戦略を自動的に選択することを学ぶ。
論文 参考訳(メタデータ) (2021-06-15T13:10:56Z) - Universal Representation Learning of Knowledge Bases by Jointly
Embedding Instances and Ontological Concepts [39.99087114075884]
我々は,より優れた知識の埋め込みを実現するために,新しい2視点KG埋め込みモデルJOIEを提案する。
JOIEは、知識基盤の複数の側面を学習するクロスビューおよびイントラビューモデリングを採用しています。
私たちのモデルは、大規模なインスタンスと(小さな)クロスビューリンクを介して接続された対応するオントロジ概念からなる大規模な知識ベースで訓練されます。
論文 参考訳(メタデータ) (2021-03-15T03:24:37Z) - Quantifying Learnability and Describability of Visual Concepts Emerging
in Representation Learning [91.58529629419135]
我々は、ディープニューラルネットワークによって自動的に発見された視覚的なグルーピングを特徴付ける方法を検討する。
本稿では、任意の画像グループ化の解釈可能性の定量化に使用できる視覚的学習可能性と記述可能性という2つの概念を紹介する。
論文 参考訳(メタデータ) (2020-10-27T18:41:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。