論文の概要: From Observations to Events: Event-Aware World Model for Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2601.19336v1
- Date: Tue, 27 Jan 2026 08:20:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-28 15:26:51.245181
- Title: From Observations to Events: Event-Aware World Model for Reinforcement Learning
- Title(参考訳): 観測からイベントへ:強化学習のためのイベント対応世界モデル
- Authors: Zhao-Han Peng, Shaohui Li, Zhi Li, Shulan Ruan, Yu Liu, You He,
- Abstract要約: イベント認識世界モデル(EAWM)は、手作りラベルを必要とせず、ポリシー学習を合理化するイベント認識表現を学習する。
我々は、一見異なる世界モデルアーキテクチャの統一的な定式化を行い、我々の手法の幅広い適用性を示す。
- 参考スコア(独自算出の注目度): 25.092575199683747
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While model-based reinforcement learning (MBRL) improves sample efficiency by learning world models from raw observations, existing methods struggle to generalize across structurally similar scenes and remain vulnerable to spurious variations such as textures or color shifts. From a cognitive science perspective, humans segment continuous sensory streams into discrete events and rely on these key events for decision-making. Motivated by this principle, we propose the Event-Aware World Model (EAWM), a general framework that learns event-aware representations to streamline policy learning without requiring handcrafted labels. EAWM employs an automated event generator to derive events from raw observations and introduces a Generic Event Segmentor (GES) to identify event boundaries, which mark the start and end time of event segments. Through event prediction, the representation space is shaped to capture meaningful spatio-temporal transitions. Beyond this, we present a unified formulation of seemingly distinct world model architectures and show the broad applicability of our methods. Experiments on Atari 100K, Craftax 1M, and DeepMind Control 500K, DMC-GB2 500K demonstrate that EAWM consistently boosts the performance of strong MBRL baselines by 10%-45%, setting new state-of-the-art results across benchmarks. Our code is released at https://github.com/MarquisDarwin/EAWM.
- Abstract(参考訳): モデルベース強化学習(MBRL)は、生の観測から世界モデルを学習することでサンプル効率を向上させるが、既存の手法は構造的に類似したシーンを一般化するのに苦労し、テクスチャや色の変化のような刺激的なバリエーションに弱いままである。
認知科学の観点からは、人間は連続的な知覚ストリームを離散的な事象に分割し、意思決定にこれらの重要な事象に依存する。
本稿では,イベント認識世界モデル(EAWM)を提案する。これは,イベント認識表現を学習し,手作りラベルを必要とせずにポリシー学習を合理化するための一般的なフレームワークである。
EAWMは、生の観測からイベントを導出する自動イベントジェネレータを採用し、イベントセグメントの開始と終了時間を示すイベント境界を特定するジェネリックイベントセグメンタ(GES)を導入している。
事象予測により、表現空間は意味のある時空間遷移を捉えるために形成される。
これ以外にも、一見異なる世界モデルアーキテクチャの統一的な定式化や、我々の手法の適用性を示す。
Atari 100K、Craftax 1M、DeepMind Control 500K、DMC-GB2 500Kの実験では、EAWMは強力なMBRLベースラインのパフォーマンスを継続的に10%-45%向上し、ベンチマーク間で新たな最先端結果が設定されている。
私たちのコードはhttps://github.com/MarquisDarwin/EAWM.comでリリースされています。
関連論文リスト
- Event-based Facial Keypoint Alignment via Cross-Modal Fusion Attention and Self-Supervised Multi-Event Representation Learning [16.170645576584487]
イベントカメラは、困難な条件下での顔のキーポイントアライメントにユニークな利点を提供する。
本稿では、イベントベースの顔キーポイントアライメントのための、相互統合注意(CMFA)と自己教師型マルチイベント表現学習(SSMER)に基づく新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-09-29T16:00:50Z) - Improving Event Definition Following For Zero-Shot Event Detection [66.27883872707523]
ゼロショットイベント検出に対する既存のアプローチは通常、既知のイベントタイプをアノテートしたデータセット上でモデルをトレーニングする。
イベント定義に従うためのトレーニングモデルによるゼロショットイベント検出の改善を目指しています。
論文 参考訳(メタデータ) (2024-03-05T01:46:50Z) - Exploring Transformers for Open-world Instance Segmentation [87.21723085867]
我々はTransformerをオープンワールドのインスタンスセグメンテーションやSWORDに活用する。
本研究では,オブジェクトと背景間の表現を拡大する新しいコントラスト学習フレームワークを提案する。
我々のモデルは、様々なオープンワールドのクロスカテゴリやクロスデータセットの一般化において最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-08-08T12:12:30Z) - Event Voxel Set Transformer for Spatiotemporal Representation Learning on Event Streams [19.957857885844838]
イベントカメラは、シーンをスパースで非同期なイベントストリームとして記録するニューロモルフィックな視覚センサである。
本稿では,イベントストリーム上での効率的な表現学習のためのイベントVoxel Set Transformer (EVSTr) という注目度モデルを提案する。
実験によると、EVSTrは低モデルの複雑さを維持しながら最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-03-07T12:48:02Z) - Continuous-time convolutions model of event sequences [46.3471121117337]
イベントシーケンスは不均一でスパースであり、従来のモデルは不適当である。
我々は、時間とともに一様でない事象の発生を処理するために設計された効率的な畳み込みニューラルネットワークに基づくCOTICを提案する。
COTICは、次のイベント時間とタイプを予測する際に既存のモデルよりも優れており、最も近いライバルの3.714と比較して平均1.5のランクに達している。
論文 参考訳(メタデータ) (2023-02-13T10:34:51Z) - Avoiding Post-Processing with Event-Based Detection in Biomedical
Signals [69.34035527763916]
学習対象としてイベントを直接扱うイベントベースのモデリングフレームワークを提案する。
イベントベースのモデリング(後処理なし)は、広範囲な後処理を伴うエポックベースのモデリングと同等以上のパフォーマンスを示す。
論文 参考訳(メタデータ) (2022-09-22T13:44:13Z) - GENEVA: Benchmarking Generalizability for Event Argument Extraction with
Hundreds of Event Types and Argument Roles [77.05288144035056]
Event Argument extract (EAE)は、新しいイベントやドメインに対応するためのモデルの一般化性の改善に重点を置いている。
ACEやEREといった標準的なベンチマークデータセットは、40のイベントタイプと25のエンティティ中心の引数ロールをカバーする。
論文 参考訳(メタデータ) (2022-05-25T05:46:28Z) - Meta-Reinforcement Learning via Buffering Graph Signatures for Live
Video Streaming Events [4.332367445046418]
本稿では,ライブビデオストリーミングイベントに参加する視聴者間のネットワークのキャパシティの予測に適応するメタラーニングモデルを提案する。
実世界の3つのライブビデオストリーミングイベントにおけるリンクウェイト予測タスクについて,提案モデルの評価を行った。
論文 参考訳(メタデータ) (2021-10-03T14:03:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。