論文の概要: Contextual Reasoning for Scene Generation (Technical Report)
- arxiv url: http://arxiv.org/abs/2305.02255v1
- Date: Wed, 3 May 2023 16:39:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-04 13:57:49.652804
- Title: Contextual Reasoning for Scene Generation (Technical Report)
- Title(参考訳): シーン生成のための文脈推論(技術報告)
- Authors: Loris Bozzato, Thomas Eiter, Rafael Kiesel, and Daria Stepanova
- Abstract要約: 実際の自動運転車のシーンデータに適用する方法を示す。
この研究の目的は、MR-CKRを自動運転車の学習に挑戦するシーンを生成する問題に適用することである。
本稿では,MR-CKRと代数測度を組み合わせた意味指導型データ生成フレームワークについて述べる。
- 参考スコア(独自算出の注目度): 16.54738722019977
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a continuation to our previous work, in which we developed the
MR-CKR framework to reason with knowledge overriding across contexts organized
in multi-relational hierarchies. Reasoning is realized via ASP with algebraic
measures, allowing for flexible definitions of preferences. In this paper, we
show how to apply our theoretical work to real autonomous-vehicle scene data.
Goal of this work is to apply MR-CKR to the problem of generating challenging
scenes for autonomous vehicle learning. In practice, most of the scene data for
AV learning models common situations, thus it might be difficult to capture
cases where a particular situation occurs (e.g. partial occlusions of a
crossing pedestrian). The MR-CKR model allows for data organization exploiting
the multi-dimensionality of such data (e.g., temporal and spatial). Reasoning
over multiple contexts enables the verification and configuration of scenes,
using the combination of different scene ontologies. We describe a framework
for semantically guided data generation, based on a combination of MR-CKR and
Algebraic Measures. The framework is implemented in a proof-of-concept
prototype exemplifying some cases of scene generation.
- Abstract(参考訳): 我々は, MR-CKRフレームワークを開発し, マルチリレーショナル階層で構成されたコンテキストにまたがって知識をオーバーライドする手法を開発した。
推論は ASP を通じて代数的測度で実現され、好みの柔軟な定義が可能である。
本稿では,実際の自動運転車のシーンデータに適用する方法について述べる。
この研究の目的は、MR-CKRを自動運転車の学習に挑戦するシーンを生成する問題に適用することである。
実際、av学習モデルのためのシーンデータのほとんどは共通の状況であり、特定の状況(例えば横断する歩行者の部分的な閉塞)が発生した場合を捉えるのが困難である。
MR-CKRモデルは、そのようなデータの多次元性(時間と空間など)を利用するデータ組織を可能にする。
複数のコンテキストにわたる推論は、異なるシーンオントロジーの組み合わせを使って、シーンの検証と構成を可能にする。
本稿では,MR-CKRと代数測度を組み合わせた意味指導型データ生成フレームワークについて述べる。
このフレームワークは、シーン生成のいくつかの例を示す概念実証プロトタイプに実装されている。
関連論文リスト
- GMC: A General Framework of Multi-stage Context Learning and Utilization for Visual Detection Tasks [10.840556935747784]
多段階のコンテキスト学習と利用のための一般的なフレームワークが提案され、様々な視覚的検出タスクのための様々なディープネットワークアーキテクチャが提案されている。
提案するフレームワークは、視覚的検出シナリオにおけるコンテキスト学習と利用のための包括的で適応可能なソリューションを提供する。
論文 参考訳(メタデータ) (2024-07-08T02:54:09Z) - Discourse-Aware In-Context Learning for Temporal Expression Normalization [7.621550020607368]
本研究では、TE正規化のためのプロプライエタリおよびオープンソースの大規模言語モデル(LLM)の実現可能性について検討する。
ウィンドウベースのプロンプト設計アプローチを用いることで、モデルを訓練することなくLLM知識を活用しながら、文間でTE正規化を行うことができる。
この課題のために設計されたモデルに対する競争結果を示す実験を行った。
論文 参考訳(メタデータ) (2024-04-11T14:13:44Z) - Contextualization Distillation from Large Language Model for Knowledge
Graph Completion [51.126166442122546]
我々は、差別的かつ生成的なKGCフレームワークと互換性のあるプラグイン・アンド・プレイ方式であるContextualization Distillation戦略を導入する。
提案手法は,大規模言語モデルに対して,コンパクトで構造的な三重項を文脈に富んだセグメントに変換するように指示することから始まる。
多様なデータセットとKGC技術にわたる総合的な評価は、我々のアプローチの有効性と適応性を強調している。
論文 参考訳(メタデータ) (2024-01-28T08:56:49Z) - Towards Truly Zero-shot Compositional Visual Reasoning with LLMs as Programmers [54.83459025465947]
最大のモデルでさえ、構成的推論、一般化、きめ細かい空間的および時間的推論、数え上げに苦しむ。
コントローラとしての大きな言語モデル(LLM)による視覚的推論は、原則として、タスクを分解し、一連の(視覚的な)ツールを編成することでサブタスクを解決することで、これらの制限に対処することができる。
本稿では,空間的・時間的に抽象的なルーチンを導入し,少数のラベル付き例を利用してコンテキスト内サンプルを自動的に生成することにより,これらの問題を緩和するフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-03T20:48:47Z) - InstructERC: Reforming Emotion Recognition in Conversation with Multi-task Retrieval-Augmented Large Language Models [9.611864685207056]
本稿では,識別的枠組みから大規模言語モデル(LLM)に基づく生成的枠組みへ,感情認識タスクを再構築するための新しいアプローチであるインストラクタCを提案する。
InstructERCは、3つの重要な貢献をしている:(1)モデルがマルチグラニュラリティ対話監視情報を明示的に統合するのに役立つ単純で効果的なテンプレートモジュール、(2)話者識別と感情予測タスクという2つの追加の感情アライメントタスクを導入し、会話における対話の役割の関係と将来の感情傾向を暗黙的にモデル化する。
論文 参考訳(メタデータ) (2023-09-21T09:22:07Z) - Pre-training Contextualized World Models with In-the-wild Videos for
Reinforcement Learning [54.67880602409801]
本稿では,視覚制御タスクの学習を効率的に行うために,Wild 動画を多用した事前学習型世界モデルの課題について検討する。
本稿では、コンテキストと動的モデリングを明確に分離したContextualized World Models(ContextWM)を紹介する。
実験により,ContextWMを内蔵したWildビデオ事前学習は,モデルベース強化学習のサンプル効率を大幅に向上できることが示された。
論文 参考訳(メタデータ) (2023-05-29T14:29:12Z) - Structure-CLIP: Towards Scene Graph Knowledge to Enhance Multi-modal
Structured Representations [70.41385310930846]
マルチモーダルな構造表現を強化するためのエンドツーエンドフレームワークであるStructure-CLIPを提案する。
シーングラフを用いてセマンティックなネガティブな例の構築をガイドし、その結果、構造化された表現の学習に重点を置いている。
知識エンハンス(KEE)は、SGKを入力として活用し、構造化表現をさらに強化するために提案される。
論文 参考訳(メタデータ) (2023-05-06T03:57:05Z) - Dialogue Meaning Representation for Task-Oriented Dialogue Systems [51.91615150842267]
タスク指向対話のための柔軟かつ容易に拡張可能な表現である対話意味表現(DMR)を提案する。
我々の表現は、合成意味論とタスク固有の概念のためのリッチな意味論を表現するために、継承階層を持つノードとエッジのセットを含んでいる。
異なる機械学習ベースの対話モデルを評価するための2つの評価タスクを提案し、さらにグラフベースのコア参照解決タスクのための新しいコア参照解決モデルGNNCorefを提案する。
論文 参考訳(メタデータ) (2022-04-23T04:17:55Z) - Continuous Scene Representations for Embodied AI [33.00565252990522]
連続シーン表現 (Continuous Scene Representations, CSR) は、空間内を移動するエンボディエージェントによって構築されたシーン表現である。
私たちの重要な洞察は、オブジェクト間のペアワイズ関係を潜在空間に埋め込むことです。
CSRは、エージェントがシーン内を移動するときにオブジェクトを追跡し、それに従って表現を更新し、部屋の構成の変更を検出する。
論文 参考訳(メタデータ) (2022-03-31T17:55:33Z) - A Causal-based Framework for Multimodal Multivariate Time Series
Validation Enhanced by Unsupervised Deep Learning as an Enabler for Industry
4.0 [0.0]
マルチレベルコンテキスト異常検出のための概念検証フレームワークを開発した。
長期記憶オートエンコーダの評価を成功させ、高炉の複数の資産に関連する文脈の学習された表現を検証する。
プロセス産業に適用された非教師なし根本原因分析の実現手段として、因果発見と表現学習を組み合わせた研究ロードマップが特定されている。
論文 参考訳(メタデータ) (2020-08-05T14:48:02Z) - How Far are We from Effective Context Modeling? An Exploratory Study on
Semantic Parsing in Context [59.13515950353125]
文法に基づく意味解析を行い,その上に典型的な文脈モデリング手法を適用する。
我々は,2つの大きなクロスドメインデータセットに対して,13のコンテキストモデリング手法を評価した。
論文 参考訳(メタデータ) (2020-02-03T11:28:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。