論文の概要: DROGO: Default Representation Objective via Graph Optimization in Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2602.00403v1
- Date: Fri, 30 Jan 2026 23:45:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.164799
- Title: DROGO: Default Representation Objective via Graph Optimization in Reinforcement Learning
- Title(参考訳): DROGO:強化学習におけるグラフ最適化によるデフォルト表現目的
- Authors: Hon Tik Tse, Marlos C. Machado,
- Abstract要約: ニューラルネットワークを用いてデフォルト表現の主固有ベクトルを直接近似する目的を導出する。
我々は,様々な環境における目的の有効性を実証的に実証し,学習した固有ベクトルを報酬形成に適用する。
- 参考スコア(独自算出の注目度): 14.390952817249746
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In computational reinforcement learning, the default representation (DR) and its principal eigenvector have been shown to be effective for a wide variety of applications, including reward shaping, count-based exploration, option discovery, and transfer. However, in prior investigations, the eigenvectors of the DR were computed by first approximating the DR matrix, and then performing an eigendecomposition. This procedure is computationally expensive and does not scale to high-dimensional spaces. In this paper, we derive an objective for directly approximating the principal eigenvector of the DR with a neural network. We empirically demonstrate the effectiveness of the objective in a number of environments, and apply the learned eigenvectors for reward shaping.
- Abstract(参考訳): 計算強化学習において、デフォルト表現(DR)とその主固有ベクトルは、報酬形成、カウントベース探索、オプション発見、転送など、幅広い用途に有効であることが示されている。
しかし、以前の研究では、DRの固有ベクトルは、まずDR行列を近似し、それから固有分解を行うことで計算された。
この手順は計算コストが高く、高次元空間にスケールしない。
本稿では,DRの主固有ベクトルを直接ニューラルネットワークで近似する目的を導出する。
我々は,様々な環境における目的の有効性を実証的に実証し,学習した固有ベクトルを報酬形成に適用する。
関連論文リスト
- Learning Reconstructive Embeddings in Reproducing Kernel Hilbert Spaces via the Representer Theorem [2.0573301822495553]
本研究は, 再現カーネルヒルベルト空間(RKHS)における再構成型多様体学習のための新しいアルゴリズムを提案する。
分離可能な演算子値カーネルは、単一のスカラー類似関数の単純さを維持しながら、定式化をベクトル値データに拡張する。
その後のカーネルアライメントタスクは、データをグラム行列が高次元再構成カーネルにマッチすることを目的とした低次元潜在空間に投影する。
論文 参考訳(メタデータ) (2026-01-09T14:35:19Z) - Efficient Parametric SVD of Koopman Operator for Stochastic Dynamical Systems [51.54065545849027]
クープマン作用素は非線形力学系を解析するための原理的なフレームワークを提供する。
VAMPnet と DPNet はクープマン作用素の主特異部分空間を学ぶために提案されている。
我々は、クープマン作用素のトップ$kの特異関数を学ぶためのスケーラブルで概念的にシンプルな方法を提案する。
論文 参考訳(メタデータ) (2025-07-09T18:55:48Z) - Learning Active Subspaces and Discovering Important Features with Gaussian Radial Basis Functions Neural Networks [0.0]
モデルの訓練が完了すると抽出できる精度行列のスペクトルに含まれる貴重な情報を示す。
回帰,分類,特徴選択タスクの数値実験を行った。
その結果,提案モデルが競合モデルに比べて魅力的な予測性能が得られるだけでなく,予測性能も向上することが示唆された。
論文 参考訳(メタデータ) (2023-07-11T09:54:30Z) - Generalizing Backpropagation for Gradient-Based Interpretability [103.2998254573497]
モデルの勾配は、半環を用いたより一般的な定式化の特別な場合であることを示す。
この観測により、バックプロパゲーションアルゴリズムを一般化し、他の解釈可能な統計を効率的に計算することができる。
論文 参考訳(メタデータ) (2023-07-06T15:19:53Z) - Neural Eigenfunctions Are Structured Representation Learners [93.53445940137618]
本稿ではニューラル固有写像という,構造化された適応長の深部表現を提案する。
本稿では,データ拡張設定における正の関係から固有関数が導出される場合,NeuralEFを適用することで目的関数が得られることを示す。
画像検索システムにおいて,適応長符号のような表現を用いることを実証する。
論文 参考訳(メタデータ) (2022-10-23T07:17:55Z) - Minimax Estimation of Linear Functions of Eigenvectors in the Face of
Small Eigen-Gaps [95.62172085878132]
固有ベクトル摂動解析は様々な統計データ科学の応用において重要な役割を果たす。
未知の固有ベクトルの任意の線型関数の摂動を特徴付ける統計理論の一組を開発する。
自然の「プラグイン」推定器に固有の非無視バイアス問題を緩和するために,非バイアス推定器を開発する。
論文 参考訳(メタデータ) (2021-04-07T17:55:10Z) - Unsupervised Ground Metric Learning using Wasserstein Eigenvectors [0.0]
主なボトルネックは、研究対象のタスクに適応すべき「基礎」コストの設計である。
本論文では,コストを入力間のペアワイズOT距離にマッピングする関数の正の固有ベクトルとして,接地コストを計算することで,正の正の答えを初めて提案する。
また,主成分分析次元の低減を行うエントロピー正則化を用いたスケーラブルな計算手法を提案する。
論文 参考訳(メタデータ) (2021-02-11T21:32:59Z) - Eigendecomposition-Free Training of Deep Networks for Linear
Least-Square Problems [107.3868459697569]
我々は、ディープネットワークのトレーニングに固有分解のないアプローチを導入する。
この手法は固有分解の明示的な微分よりもはるかに堅牢であることを示す。
我々の手法は収束特性が良く、最先端の結果が得られます。
論文 参考訳(メタデータ) (2020-04-15T04:29:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。