論文の概要: Formalisation of Action with Durations in Answer Set Programming
- arxiv url: http://arxiv.org/abs/2109.08305v1
- Date: Fri, 17 Sep 2021 01:51:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-21 01:24:29.593538
- Title: Formalisation of Action with Durations in Answer Set Programming
- Title(参考訳): 解集合プログラミングにおける時間的行動の形式化
- Authors: Etienne Tignon
- Abstract要約: 私は現在ASP.NETのアクション記述を調べています。
私のゴールは、異なるコンテキストにおけるアクションを持続時間で表現する方法を探ることです。
私の知る限りでは、この話題に関する現在の研究はない。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, I will discuss the work I am currently doing as a Ph.D.
student at the University of Potsdam, under the tutoring of T. Schaub. I'm
currently looking into action description in ASP. More precisely, my goal is to
explore how to represent actions with durations in ASP, in different contexts.
Right now, I'm focused on Multi-Agent Path Finding (MAPF), looking at how to
represent speeds for different agents and contexts.
Before tackling duration, I wanted to explore and compare different
representations of action taking in ASP. For this, I started comparing
different simple encodings tackling the MAPF problem. Even in simple code,
choices and assumptions have been made in their creations. The objective of my
work is to present the consequences of those design decisions in terms of
performance and knowledge representation. As far as I know, there is no current
research on this topic.
Besides that, I'm also exploring different ways to represent duration and to
solve related problems. I planed to compare them the same way I described
before. I also want this to help me find innovative and effective ways to solve
problems with duration.
- Abstract(参考訳): 本稿では,ポツダム大学の博士課程生であるT. Schaubの指導の下,私が現在行っている研究について論じる。
私は現在ASP.NETのアクション記述を調べています。
より正確に言うと、私のゴールは、ASP.NETの持続時間でアクションを表現する方法を探ることです。
現時点では、さまざまなエージェントやコンテキストの速度を表す方法を模索している、MAPF(Multi-Agent Path Finding)に注目しています。
持続時間に取り組む前に、asp.netのさまざまなアクションの表現を調査して比較したかったのです。
そこで私は、mapf問題に取り組む異なる単純なエンコーディングを比較し始めた。
単純なコードでも、選択や仮定が作成に使われています。
私の仕事の目的は、これらの設計決定の結果をパフォーマンスと知識表現の観点から示すことです。
私の知る限りでは、この話題に関する現在の研究はない。
さらに、持続時間を表現し、関連する問題を解決するさまざまな方法を模索しています。
以前説明したように、それらを比較するつもりでした。
また、このことは、持続時間で問題を解決する革新的な効果的な方法を見つけるのにも役立ちたいです。
関連論文リスト
- EEE-QA: Exploring Effective and Efficient Question-Answer
Representations [7.764629726412793]
疑問に答えるための現在のアプローチは、RoBERTaのような事前訓練された言語モデル(PLM)に依存している。
この研究は、既存の質問応答符号化規約に挑戦し、より微細な表現を探求する。
論文 参考訳(メタデータ) (2024-03-04T16:21:13Z) - DoraemonGPT: Toward Understanding Dynamic Scenes with Large Language
Models [78.43468551763303]
我々は,動的ビデオタスクを扱うLLMによって駆動される包括的かつ概念的にエレガントなシステムであるドラモンGPTを考案した。
質問/タスクのあるビデオが与えられた場合、DoraemonGPTは入力されたビデオをタスク関連の属性を格納するシンボリックメモリに変換することから始める。
3つのベンチマークでDoraemonGPTの有効性を広く評価した。
論文 参考訳(メタデータ) (2024-01-16T14:33:09Z) - Instruct Me More! Random Prompting for Visual In-Context Learning [30.31759752239964]
Instruct Me More (InMeMo)は、学習可能な摂動(prompt)によってコンテキスト内のペアを拡張し、その可能性を探る手法である。
メインストリームタスクに関する我々の実験は、InMeMoが現在の最先端のパフォーマンスを上回っていることを示している。
この結果から,InMeMoは軽量トレーニングによる視覚的ICLの性能向上のための多目的かつ効率的な方法である可能性が示唆された。
論文 参考訳(メタデータ) (2023-11-07T01:39:00Z) - RetICL: Sequential Retrieval of In-Context Examples with Reinforcement
Learning [77.34726150561087]
In-Context Learning (RetICL) のための検索式を提案する。
我々は、マルコフ決定プロセスとして逐次サンプル選択の問題を定義し、LSTMを用いてサンプルレトリバーモデルを設計し、近似ポリシー最適化を用いてそれを訓練する。
論文 参考訳(メタデータ) (2023-05-23T20:15:56Z) - Question Answering as Programming for Solving Time-Sensitive Questions [84.07553016489769]
質問応答は、世界に関する知識の獲得に関わるため、人間の日常生活において重要な役割を担っている。
近年,Large Language Models (LLMs) は疑問に答える上で顕著な知性を示している。
これはLLMが表面レベルのテキストセマンティクスに基づいて厳密な推論を行うことができないためである。
我々は、$textbfQ$uestion $textbfA$rogrogeringタスクを再設定する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-23T16:35:16Z) - MINOTAUR: Multi-task Video Grounding From Multimodal Queries [70.08973664126873]
長文ビデオにおける問合せに基づくビデオ理解に一貫した単一のモデルを提案する。
特に、我々のモデルは、Ego4D Episodic Memoryベンチマークの3つのタスクすべてに対処できる。
論文 参考訳(メタデータ) (2023-02-16T04:00:03Z) - Can Shuffling Video Benefit Temporal Bias Problem: A Novel Training
Framework for Temporal Grounding [20.185272219985787]
テンポラルグラウンドディングは、意図しないビデオにおいて、与えられた文クエリに意味的に対応する対象のビデオモーメントを見つけることを目的としている。
従来の方法は、視覚的・テクスチャ的セマンティックアライメントに基づいて、ターゲットのモーメント位置を推論するのではなく、トレーニングセットにおけるクエリの時間的バイアスに過度に依存する。
本稿では,シャッフルビデオを用いて時間的バイアス問題に対処し,グラウンド化精度を損なうことなく,グラウンド化モデルを構築するための新しいトレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-29T14:11:48Z) - Answer-Me: Multi-Task Open-Vocabulary Visual Question Answering [43.07139534653485]
タスク対応マルチタスクフレームワークAnswer-Meを提案する。
マルチタスクである視覚言語ジョイントモデルを事前訓練する。
その結果、最先端のパフォーマンス、ゼロショットの一般化、忘れることへの堅牢性、競争力のあるシングルタスクの結果が示された。
論文 参考訳(メタデータ) (2022-05-02T14:53:13Z) - On Steering Multi-Annotations per Sample for Multi-Task Learning [79.98259057711044]
マルチタスク学習の研究はコミュニティから大きな注目を集めている。
目覚ましい進歩にもかかわらず、異なるタスクを同時に学習するという課題はまだ検討されていない。
従来の研究は、異なるタスクから勾配を修正しようとするが、これらの手法はタスク間の関係の主観的な仮定を与え、修正された勾配はより正確でないかもしれない。
本稿では,タスク割り当てアプローチによってこの問題に対処する機構であるタスク割当(STA)を紹介し,各サンプルをランダムにタスクのサブセットに割り当てる。
さらなる進展のために、我々は全てのタスクを反復的に割り当てるためにInterleaved Task Allocation(ISTA)を提案する。
論文 参考訳(メタデータ) (2022-03-06T11:57:18Z) - PolyphonicFormer: Unified Query Learning for Depth-aware Video Panoptic
Segmentation [90.26723865198348]
DVPSタスクで全てのサブタスクを統一する視覚変換器であるPolyphonicFormerを提案する。
提案手法は,問合せ学習による深度推定とパノプティックセグメンテーションの関係について検討する。
ICCV-2021 BMTT Challenge video + depth trackで1位にランクインした。
論文 参考訳(メタデータ) (2021-12-05T14:31:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。