論文の概要: KAGE-Bench: Fast Known-Axis Visual Generalization Evaluation for Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2601.14232v1
- Date: Tue, 20 Jan 2026 18:44:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.454287
- Title: KAGE-Bench: Fast Known-Axis Visual Generalization Evaluation for Reinforcement Learning
- Title(参考訳): KAGE-Bench: 強化学習のためのファストナクソン軸視覚一般化評価
- Authors: Egor Cherepanov, Daniil Zelezetsky, Alexey K. Kovalev, Aleksandr I. Panov,
- Abstract要約: 我々は、観察プロセスを独立して制御可能な視覚軸に分解するJAXネイティブな2DプラットフォームであるKAGE-Envを紹介する。
この環境に基づいてKAGE-Benchを定義する。KAGE-Benchは、34の列車評価構成ペアからなる6つの既知の軸組のベンチマークである。
完全にベクター化されたJAX実装は、単一のGPU上で毎秒3300万の環境ステップを可能にし、視覚的要因を高速かつ再現可能なスイープを可能にする。
- 参考スコア(独自算出の注目度): 44.94110361062394
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Pixel-based reinforcement learning agents often fail under purely visual distribution shift even when latent dynamics and rewards are unchanged, but existing benchmarks entangle multiple sources of shift and hinder systematic analysis. We introduce KAGE-Env, a JAX-native 2D platformer that factorizes the observation process into independently controllable visual axes while keeping the underlying control problem fixed. By construction, varying a visual axis affects performance only through the induced state-conditional action distribution of a pixel policy, providing a clean abstraction for visual generalization. Building on this environment, we define KAGE-Bench, a benchmark of six known-axis suites comprising 34 train-evaluation configuration pairs that isolate individual visual shifts. Using a standard PPO-CNN baseline, we observe strong axis-dependent failures, with background and photometric shifts often collapsing success, while agent-appearance shifts are comparatively benign. Several shifts preserve forward motion while breaking task completion, showing that return alone can obscure generalization failures. Finally, the fully vectorized JAX implementation enables up to 33M environment steps per second on a single GPU, enabling fast and reproducible sweeps over visual factors. Code: https://avanturist322.github.io/KAGEBench/.
- Abstract(参考訳): 画素ベースの強化学習エージェントは、潜伏するダイナミクスや報酬が変化しても、純粋に視覚的な分散シフトで失敗することが多いが、既存のベンチマークは、複数のシフトソースを絡め、体系的な分析を妨げる。
我々は、JAXネイティブな2DプラットフォームであるKAGE-Envを紹介し、基礎となる制御問題を固定しつつ、観察プロセスを独立して制御可能な視覚軸に分解する。
構成により、視覚軸の変化は、画素ポリシーの誘導された状態条件の動作分布を通してのみ性能に影響を与え、視覚一般化のためのクリーンな抽象化を提供する。
この環境に基づいてKAGE-Benchを定義する。KAGE-Benchは、34の列車評価構成ペアからなる6つの既知の軸組のベンチマークで、個々の視覚的シフトを分離する。
標準のPPO-CNNベースラインを用いて、強い軸依存性の故障を観測し、背景および光度シフトがしばしば失敗する一方、エージェント出現シフトは比較的良質である。
いくつかのシフトは、タスク完了を破りながら前進を保ち、リターンだけで一般化の失敗があいまいになることを示している。
最後に、完全にベクター化されたJAX実装は、単一のGPU上で毎秒最大3300万の環境ステップを可能にし、視覚的要因を高速かつ再現可能なスイープを可能にする。
コード:https://avanturist322.github.io/KAGEBench/。
関連論文リスト
- Reloc-VGGT: Visual Re-localization with Geometry Grounded Transformer [40.778996326009185]
初期核融合機構による多視点空間統合を行う最初のビジュアルローカライゼーションフレームワークを提案する。
我々のフレームワークはVGGTのバックボーン上に構築されており、多視点3D形状を符号化している。
本研究では,グローバルアテンションの2次複雑さを回避し,計算コストを削減する新しいスパースマスクアテンション戦略を提案する。
論文 参考訳(メタデータ) (2025-12-26T06:12:17Z) - GrAInS: Gradient-based Attribution for Inference-Time Steering of LLMs and VLMs [56.93583799109029]
GrAInSは推論時ステアリングのアプローチで、言語のみのモデルと視覚言語の両方のモデルとタスクで動作する。
推論中、GrAInSはトークンレベルの属性信号によって誘導されるトランスフォーマー層で隠されたアクティベーションを隠蔽し、アクティベーションを正規化し、表現スケールを保存する。
微調整と既存のステアリングベースラインの両方を一貫して上回る。
論文 参考訳(メタデータ) (2025-07-24T02:34:13Z) - CNS-Bench: Benchmarking Image Classifier Robustness Under Continuous Nuisance Shifts [78.79936076607373]
我々は,連続ニュアンスシフトベンチマークであるCNS-Benchを導入し,連続かつ現実的なニュアンスシフトのための画像分類器の堅牢性を定量化する。
本稿では,従来の手法よりも優れたフィルタリング機構を提案し,生成モデルによる信頼性の高いベンチマークを可能にする。
論文 参考訳(メタデータ) (2025-07-23T16:15:48Z) - Learning a Fast Mixing Exogenous Block MDP using a Single Trajectory [87.62730694973696]
STEELは、単一軌道から外因性ブロックマルコフ決定過程の制御可能なダイナミクスを学習するための、最初の証明可能なサンプル効率アルゴリズムである。
我々は,STEELが正解であり,サンプル効率が良いことを証明し,STEELを2つの玩具問題で実証した。
論文 参考訳(メタデータ) (2024-10-03T21:57:21Z) - Regularizing Self-supervised 3D Scene Flows with Surface Awareness and Cyclic Consistency [3.124750429062221]
2つの新たな一貫性損失を導入し、クラスタを拡大し、異なるオブジェクトに分散するのを防ぐ。
提案した損失はモデル独立であり、既存のモデルの性能を大幅に向上させるためにプラグアンドプレイ方式で使用できる。
また,4つの標準センサ一様駆動データセット上で,フレームワークの有効性と一般化能力を示す。
論文 参考訳(メタデータ) (2023-12-12T11:00:39Z) - Towards Robust GAN-generated Image Detection: a Multi-view Completion
Representation [27.483031588071942]
GAN生成画像検出は、ディープフェイクのようなマシン合成画像操作の悪意ある使用に対する最初の防御線となっている。
本稿では,新しい多視点画像補完表現に基づくロバスト検出フレームワークを提案する。
我々は,6つのGANに対して異なる解像度でフレームワークの一般化能力を評価し,その幅広い摂動攻撃に対する堅牢性を評価する。
論文 参考訳(メタデータ) (2023-06-02T08:38:02Z) - Causal Transportability for Visual Recognition [70.13627281087325]
画像とラベルの関連性は、設定間では転送できないため、標準分類器がフェールすることを示す。
次に、すべての共起源を摂食する因果効果が、ドメイン間で不変であることを示す。
これにより、画像分類における因果効果を推定するアルゴリズムを開発する動機付けとなる。
論文 参考訳(メタデータ) (2022-04-26T15:02:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。