論文の概要: Explainable Abstract Trains Dataset
- arxiv url: http://arxiv.org/abs/2012.12115v1
- Date: Tue, 15 Dec 2020 13:18:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-07 05:38:43.221152
- Title: Explainable Abstract Trains Dataset
- Title(参考訳): 説明可能な抽象列車データセット
- Authors: Manuel de Sousa Ribeiro, Ludwig Krippahl, Joao Leite
- Abstract要約: Explainable Abstract Trainsデータセットは、列車の簡易表現を含む画像データセットです。
正当化と説明抽出のためのアルゴリズムの適用と研究のためのプラットフォームを提供することを目指しています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Explainable Abstract Trains Dataset is an image dataset containing
simplified representations of trains. It aims to provide a platform for the
application and research of algorithms for justification and explanation
extraction. The dataset is accompanied by an ontology that conceptualizes and
classifies the depicted trains based on their visual characteristics, allowing
for a precise understanding of how each train was labeled. Each image in the
dataset is annotated with multiple attributes describing the trains' features
and with bounding boxes for the train elements.
- Abstract(参考訳): 説明可能な抽象列車データセットは、列車の簡易表現を含むイメージデータセットである。
正当化と説明抽出のためのアルゴリズムの応用と研究のためのプラットフォームを提供することを目的としている。
データセットには、その視覚特性に基づいて表現された列車を概念化し分類するオントロジーが付属しており、各列車のラベル付け方法を正確に理解することができる。
データセットの各画像は、列車の特徴を記述した複数の属性と、列車要素のバウンディングボックスでアノテートされる。
関連論文リスト
- Learning Transferable Pedestrian Representation from Multimodal
Information Supervision [174.5150760804929]
VAL-PATは、移動可能な表現を学習し、様々な歩行者分析タスクをマルチモーダル情報で強化する新しいフレームワークである。
まず、LUPerson-TAデータセットで事前トレーニングを行い、各画像にはテキストと属性アノテーションが含まれている。
次に、学習した表現を、人物のreID、人物属性認識、テキストベースの人物検索など、さまざまな下流タスクに転送する。
論文 参考訳(メタデータ) (2023-04-12T01:20:58Z) - Learning and generalization of compositional representations of visual
scenes [2.960473840509733]
オブジェクト属性の分散表現とベクトルシンボルアーキテクチャにおけるベクトル演算を用いてシーンの完全な構成記述を作成する。
シーン構成を制御するために、複数の、翻訳された、色付きMNIST桁からなる人工画像を使用する。
ディープネットワークの出力はVSA共振器ネットワークによって解釈され、オブジェクトの同一性やその他のオブジェクトの特性を抽出する。
論文 参考訳(メタデータ) (2023-03-23T22:03:42Z) - Semi-Supervised Image Captioning by Adversarially Propagating Labeled
Data [95.0476489266988]
本稿では、画像キャプションモデルの一般化を改善するための、新しいデータ効率半教師付きフレームワークを提案する。
提案手法は,キャプタにペアデータから学習し,段階的に未ペアデータの関連付けを行うよう訓練する。
1)画像ベースと(2)高密度領域ベースキャプションデータセットの両方を総合的かつ包括的な実験結果とし,それに続いて,少ないペアリングデータセットの包括的分析を行った。
論文 参考訳(メタデータ) (2023-01-26T15:25:43Z) - Extracting Semantic Knowledge from GANs with Unsupervised Learning [65.32631025780631]
GAN(Generative Adversarial Networks)は、特徴写像のセマンティクスを線形に分離可能な形でエンコードする。
本稿では,線形分離性を利用してGANの特徴をクラスタリングする新しいクラスタリングアルゴリズムKLiSHを提案する。
KLiSHは、さまざまなオブジェクトのデータセットに基づいてトレーニングされたGANのきめ細かいセマンティクスの抽出に成功している。
論文 参考訳(メタデータ) (2022-11-30T03:18:16Z) - Cross-Modal Fusion Distillation for Fine-Grained Sketch-Based Image
Retrieval [55.21569389894215]
本稿では,視覚変換器(XModalViT)のクロスアテンションフレームワークを提案する。
我々のフレームワークはまず、個々の写真からペア化されたデータポイントをマッピングし、両方のモダリティから情報を統一する融合表現にスケッチする。
次に、上記のモダリティ融合ネットワークの入力空間を、コントラストおよびリレーショナルなクロスモーダル知識蒸留により個々のモダリティの独立エンコーダに分離する。
論文 参考訳(メタデータ) (2022-10-19T11:50:14Z) - Learning from the Tangram to Solve Mini Visual Tasks [74.75187973962069]
この作品は7つの分離された形状から抽象的なパターンを複製する必要があるゲームであるTangramにインスパイアされている。
我々は、Tangramデータセットを示し、Tangram上の事前学習されたニューラルネットワークが、低解像度のビジョンに基づいて、いくつかの小さな視覚的タスクを解くのに役立つことを示す。
論文 参考訳(メタデータ) (2021-12-12T02:02:14Z) - Data Augmentation for Object Detection via Differentiable Neural
Rendering [71.00447761415388]
注釈付きデータが乏しい場合、堅牢なオブジェクト検出器を訓練することは困難です。
この問題に対処する既存のアプローチには、ラベル付きデータからラベル付きデータを補間する半教師付き学習が含まれる。
オブジェクト検出のためのオフラインデータ拡張手法を導入し、新しいビューでトレーニングデータを意味的に補間する。
論文 参考訳(メタデータ) (2021-03-04T06:31:06Z) - Learning to Represent Image and Text with Denotation Graph [32.417311523031195]
本稿では,画像とテキスト間の暗黙的・視覚的接地表現の集合から学習表現を提案する。
得られた構造的関係を利用して,最先端のマルチモーダル学習モデルをさらに改良できることを示す。
論文 参考訳(メタデータ) (2020-10-06T18:00:58Z) - Narrative Maps: An Algorithmic Approach to Represent and Extract
Information Narratives [6.85316573653194]
本稿では、物語表現の理論と現代のオンラインシステムのデータを組み合わせる。
物語地図の表現は、物語の中の出来事と物語を、地図上のランドマークとルートのシリーズとして描いている。
我々の発見は、情報アナリスト、計算ジャーナリスト、誤情報研究者に影響を及ぼす。
論文 参考訳(メタデータ) (2020-09-09T18:30:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。