論文の概要: Qualitative Event Perception: Leveraging Spatiotemporal Episodic Memory for Learning Combat in a Strategy Game
- arxiv url: http://arxiv.org/abs/2407.06088v1
- Date: Mon, 8 Jul 2024 16:28:38 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-09 14:51:28.496121
- Title: Qualitative Event Perception: Leveraging Spatiotemporal Episodic Memory for Learning Combat in a Strategy Game
- Title(参考訳): 定性的事象知覚:戦略ゲームにおける対時的エピソード記憶の学習への応用
- Authors: Will Hancock, Kenneth D. Forbus,
- Abstract要約: 連続的な体験をエピソードに分割するために、時間的表現がどのように使用できるかを分析する。
イベント記述を有用な粒度でキャプチャするので,学習を容易にする証拠を提示する。
また、エピソードの空間的範囲の知覚が、時間的時間と全体のケース数の両方に影響を及ぼすという経験的証拠も示している。
- 参考スコア(独自算出の注目度): 6.307485015636125
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Event perception refers to people's ability to carve up continuous experience into meaningful discrete events. We speak of finishing our morning coffee, mowing the lawn, leaving work, etc. as singular occurrences that are localized in time and space. In this work, we analyze how spatiotemporal representations can be used to automatically segment continuous experience into structured episodes, and how these descriptions can be used for analogical learning. These representations are based on Hayes' notion of histories and build upon existing work on qualitative episodic memory. Our agent automatically generates event descriptions of military battles in a strategy game and improves its gameplay by learning from this experience. Episodes are segmented based on changing properties in the world and we show evidence that they facilitate learning because they capture event descriptions at a useful spatiotemporal grain size. This is evaluated through our agent's performance in the game. We also show empirical evidence that the perception of spatial extent of episodes affects both their temporal duration as well as the number of overall cases generated.
- Abstract(参考訳): イベント知覚とは、継続的な経験を意味のある離散的な出来事に彫り上げる能力を指す。
朝のコーヒーの仕上がり、芝刈り、仕事など、時間と空間に局在した特異な出来事として語ります。
本研究では,連続的な体験を構造化エピソードに自動的に分割するために時空間表現をどのように利用できるか,そしてこれらの記述が類推学習にどのように利用できるかを分析する。
これらの表現はヘイズのヒストリーの概念に基づいており、定性的なエピソード記憶に関する既存の研究に基づいている。
我々のエージェントは、戦略ゲームにおける戦闘の出来事を自動生成し、この経験から学習することでゲームプレイを改善する。
エピソードは世界の特性の変化に基づいてセグメント化され,イベント記述を有用な時空間粒径で捉えることによって学習を促進することを示す。
これは,ゲームにおけるエージェントのパフォーマンスによって評価される。
また、エピソードの空間的範囲の知覚が、時間的時間と全体のケース数の両方に影響を及ぼすという経験的証拠も示している。
関連論文リスト
- Lost in Recursion: Mining Rich Event Semantics in Knowledge Graphs [2.657233098224094]
複雑な出来事に関する物語を構築・活用する方法を示す。
複雑な事象に対する異なる視点を考慮に入れるために、テキストからそのような物語をマイニングするアルゴリズムを提供する。
論文 参考訳(メタデータ) (2024-04-25T08:33:08Z) - Detecting Events in Crowds Through Changes in Geometrical Dimensions of
Pedestrians [0.6390468088226495]
イベントが群衆の行動の変化を引き起こす場合と、群衆とその動きがほとんど変化しない2つのビデオシーケンスの両方を含む、群衆行動の3つの異なるシナリオについて検討する。
ビデオと個々の歩行者の追跡(前処理段階)の両方で、Geomindを使用してシーン、特に幾何学的特徴、個性、感情に関する重要なデータを抽出する。
次に、各人物がイベントを識別したり、現実的な群衆をモデル化するための基盤として使用できる、時間の関数としての働き方に大きな変化を求める。
論文 参考訳(メタデータ) (2023-12-11T16:18:56Z) - Moments for Perceptive Narration Analysis Through the Emotional
Attachment of Audience to Discourse and Story [1.9166071976695527]
特徴映画の物語のような直線的な物語は、互いに追従する瞬間の集合に分解できると推測する。
モーメントを、ストーリーモーメントと談話モーメントの2つの主要なタイプに分類する。
これらの普遍的な瞬間は、特定の人物や物語に対する聴衆の感情的な愛着を育むか、悪化させると信じている。
論文 参考訳(メタデータ) (2023-10-27T16:59:13Z) - Free-Form Composition Networks for Egocentric Action Recognition [97.02439848145359]
本稿では,不整形動詞,前置詞,名詞表現を同時に学習できる自由形合成ネットワーク(FFCN)を提案する。
提案したFFCNは、レアクラスのトレーニングデータを直接生成できるため、動作認識性能が大幅に向上する。
論文 参考訳(メタデータ) (2023-07-13T02:22:09Z) - What, when, and where? -- Self-Supervised Spatio-Temporal Grounding in Untrimmed Multi-Action Videos from Narrated Instructions [55.574102714832456]
時空間グラウンド(時空間グラウンド)は、空間と時間における事象を局所化するタスクを指す。
このタスクのモデルは、通常、人間の注釈付き文とバウンディングボックスの監督によって訓練される。
我々は,局所的な表現学習と,より詳細な空間情報に焦点を合わせ,高レベルな表現を捉えるグローバルな表現を組み合わせる。
論文 参考訳(メタデータ) (2023-03-29T19:38:23Z) - Computational Lens on Cognition: Study Of Autobiographical Versus
Imagined Stories With Large-Scale Language Models [95.88620740809004]
GPT-3を用いた自伝的物語と想像的物語における出来事の物語の流れの相違について検討した。
想像された物語は自伝的物語よりも逐次性が高いことがわかった。
想像された物語と比較すると、自伝的な物語は、最初の人物に関連するより具体的な言葉と単語を含んでいる。
論文 参考訳(メタデータ) (2022-01-07T20:10:47Z) - Saliency Guided Experience Packing for Replay in Continual Learning [6.417011237981518]
本研究では,経験再現のための新しいアプローチを提案し,過去の経験をサリエンシマップから選択する。
新しいタスクを学習している間、我々はこれらのメモリパッチを適切なゼロパディングで再生し、過去の決定をモデルに思い出させる。
論文 参考訳(メタデータ) (2021-09-10T15:54:58Z) - Toward Accurate Person-level Action Recognition in Videos of Crowded
Scenes [131.9067467127761]
我々は、シーンの情報を完全に活用し、新しいデータを集めることで、アクション認識を改善することに集中する。
具体的には、各フレームの空間的位置を検出するために、強い人間の検出器を採用する。
そして、行動認識モデルを適用して、HIEデータセットとインターネットから多様なシーンを持つ新しいデータの両方でビデオフレームから時間情報を学ぶ。
論文 参考訳(メタデータ) (2020-10-16T13:08:50Z) - Paragraph-level Commonsense Transformers with Recurrent Memory [77.4133779538797]
物語からコヒーレントなコモンセンス推論を生成するために,段落レベルの情報を含む談話認識モデルを訓練する。
以上の結果から,PARA-COMETは文レベルのベースライン,特にコヒーレントかつ新規な推論に優れていた。
論文 参考訳(メタデータ) (2020-10-04T05:24:12Z) - Spatiotemporal Attacks for Embodied Agents [119.43832001301041]
我々は、エンボディエージェントに対する敵攻撃を研究するための第一歩を踏み出した。
特に,時間次元と空間次元の両方の相互作用履歴を利用する逆例を生成する。
我々の摂動は強力な攻撃力と一般化能力を持っている。
論文 参考訳(メタデータ) (2020-05-19T01:38:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。