論文の概要: $\textit{Clingraph}$: A System for ASP-based Visualization
- arxiv url: http://arxiv.org/abs/2303.10118v1
- Date: Fri, 17 Mar 2023 16:59:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-20 13:49:52.114560
- Title: $\textit{Clingraph}$: A System for ASP-based Visualization
- Title(参考訳): $\textit{Clingraph}$:ASPベースの可視化システム
- Authors: Susana Hahn, Orkunt Sabuncu, Torsten Schaub, Tobias Stolzmann
- Abstract要約: ASPベースの視覚化ツールである$textitclingraph$は、ASP自体によってASPのさまざまな概念を視覚化することを目的としている。
このアイデアは、$textitaspviz$ツールと$textitclingraph$ redevelopsに遡り、現代のASPシステムのコンテキストでそれを拡張した。
- 参考スコア(独自算出の注目度): 1.8409463838775555
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: We present the ASP-based visualization tool $\textit{clingraph}$ which aims
at visualizing various concepts of ASP by means of ASP itself. This idea traces
back to the $\textit{aspviz}$ tool and $\textit{clingraph}$ redevelops and
extends it in the context of modern ASP systems. More precisely,
$\textit{clingraph}$ takes graph specifications in terms of ASP facts and hands
them over to the graph visualization system $\textit{graphviz}$. The use of ASP
provides a great interface between logic programs and/or answer sets and their
visualization. Also, $\textit{clingraph}$ offers a $\textit{python}$ API that
extends this ease of interfacing to $\textit{clingo}$'s API, and in turn to
connect and monitor various aspects of the solving process.
- Abstract(参考訳): ASP ベースの視覚化ツール $\textit{clingraph}$ を提示する。
このアイデアは、$\textit{aspviz}$ツールと$\textit{clingraph}$再開発に遡り、現代的なaspシステムのコンテキストでそれを拡張します。
より正確には、$\textit{clingraph}$は、ASP事実の観点からグラフ仕様を取り、それらをグラフ視覚化システム$\textit{graphviz}$に渡します。
aspの使用は、論理プログラムと/または応答セットとそれらの可視化の間の優れたインターフェースを提供する。
また、$\textit{clingraph}$は$\textit{python}$ apiを提供し、このインターフェイスを簡単に$\textit{clingo}$のapiに拡張する。
関連論文リスト
- Harnessing Webpage UIs for Text-Rich Visual Understanding [112.01029887404296]
テキストベース大規模言語モデル(LLM)を用いたWebページUIからの汎用マルチモーダル命令の合成を提案する。
これらの命令はUIスクリーンショットと組み合わせて、マルチモーダルモデルのトレーニングを行う。
我々は、100万のWebサイトから730万のサンプルを含むデータセットであるMultiUIを紹介し、多様なマルチモーダルタスクとUIレイアウトをカバーした。
論文 参考訳(メタデータ) (2024-10-17T17:48:54Z) - ESCoT: Towards Interpretable Emotional Support Dialogue Systems [57.19341456308303]
これまでの研究は主に、より良い応答を生成することに重点を置いていたが、信頼性の高い対話システムを構築する上で非常に重要である解釈可能性を無視している。
本稿では, 感情支援応答生成手法として, $textbfE$motion-Focused と $textbfS$trategy-Driven を提案する。
また,提案したESCoTの有効性と,生成した対話応答を検証するために,広範囲な実験と人的評価を行った。
論文 参考訳(メタデータ) (2024-06-16T14:37:17Z) - Creating an AI Observer: Generative Semantic Workspaces [4.031100721019478]
我々は、$textbf[G]$enerative $textbf[S]$emantic $textbf[W]$orkspace (GSW)を紹介します。
GSWは、伝統的に定義されたレキシコンラベルのセットとは対照的に、生成的なスタイルのセマンティックフレームワークを作成する。
論文 参考訳(メタデータ) (2024-06-07T00:09:13Z) - GITA: Graph to Visual and Textual Integration for Vision-Language Graph Reasoning [30.23658922980425]
我々は、$textbfG$raph to v$textbfI$sual and $textbfT$extual Integr$textbfA$tion (GITA)というエンドツーエンドフレームワークを提案する。
GITAはまず、ビジュアルグラフを一般的なグラフ推論に組み込む。
GVLQAデータセットと5つの実世界のデータセットの実験は、GITAが一般的なグラフ推論能力において、メインストリームのLLMよりも優れていることを示している。
論文 参考訳(メタデータ) (2024-02-03T12:19:47Z) - Pix2Struct: Screenshot Parsing as Pretraining for Visual Language
Understanding [58.70423899829642]
Pix2Structは、純粋に視覚的な言語理解のための事前訓練された画像-テキストモデルである。
4つの領域にまたがる9つのタスクのうち6つのタスクにおいて、1つの事前訓練されたモデルが最先端の結果が得られることを示す。
論文 参考訳(メタデータ) (2022-10-07T06:42:06Z) - Contrastive Learning of Semantic and Visual Representations for Text
Tracking [22.817884815010856]
本稿では,意味的および視覚的表現のコントラスト学習による映像テキストの追跡について検討する。
本稿では,Semantic and Visual Representations (SVRep) を用いたエンドツーエンドのビデオテキストトラッカーを提案する。
SVRepはResNet-18のバックボーンで$rm ID_F1$ of $textbf65.9%$を達成している。
論文 参考訳(メタデータ) (2021-12-30T09:22:13Z) - How to build your own ASP-based system?! [4.171595518241986]
このチュートリアルは、ユーザが独自のASPベースのシステムを構築することを可能にすることを目的としている。
ASPシステムClingOは、ASPの拡張やカスタマイズされた専用システムの実装にどのように使用できるかを示す。
論文 参考訳(メタデータ) (2020-08-15T10:08:50Z) - Synthesizing Tasks for Block-based Programming [72.45475843387183]
本稿では,ソリューションコードとともに,新しいタスクのセット$(rm Tout, rm Cout)$を自動生成する新しい手法を提案する。
我々のアルゴリズムは、まずコード$rm Cin$を変更して、コードセット$rm Cout$を得る。
論文 参考訳(メタデータ) (2020-06-17T15:04:37Z) - Iterative Context-Aware Graph Inference for Visual Dialog [126.016187323249]
本稿では,新しいコンテキスト認識グラフ(CAG)ニューラルネットワークを提案する。
グラフの各ノードは、オブジェクトベース(視覚)と履歴関連(テキスト)コンテキスト表現の両方を含む、共同意味機能に対応している。
論文 参考訳(メタデータ) (2020-04-05T13:09:37Z) - Few-Shot Learning via Learning the Representation, Provably [115.7367053639605]
本稿では,表現学習による少数ショット学習について検討する。
1つのタスクは、ターゲットタスクのサンプルの複雑さを減らすために、$T$ソースタスクと$n_1$データを使用して表現を学習する。
論文 参考訳(メタデータ) (2020-02-21T17:30:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。