論文の概要: APPO: Attention-guided Perception Policy Optimization for Video Reasoning
- arxiv url: http://arxiv.org/abs/2602.23823v1
- Date: Fri, 27 Feb 2026 09:07:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-02 19:48:24.341642
- Title: APPO: Attention-guided Perception Policy Optimization for Video Reasoning
- Title(参考訳): APPO:ビデオ推論のための注意誘導型知覚ポリシー最適化
- Authors: Henghui Du, Chang Zhou, Xi Chen, Di Hu,
- Abstract要約: 複雑なビデオの推論は微妙な知覚に過度に依存している。
本稿では,アテンション誘導型知覚ポリシー最適化アルゴリズムAPPOを提案する。
我々は,APPOがGRPOとDAPOを一貫して上回ることを示す。
- 参考スコア(独自算出の注目度): 42.07411931397515
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Complex video reasoning, actually, relies excessively on fine-grained perception rather than on expert (e.g., Ph.D, Science)-level reasoning. Through extensive empirical observation, we have recognized the critical impact of perception. In particular, when perception ability is almost fixed, enhancing reasoning from Qwen3-8B to OpenAI-o3 yields only 0.7% performance improvement. Conversely, even minimal change in perception model scale (from 7B to 32B) boosts performance by 1.4%, indicating enhancing perception, rather than reasoning, is more critical to improve performance. Therefore, exploring how to enhance perception ability through reasoning without the need for expensive fine-grained annotation information is worthwhile. To achieve this goal, we specially propose APPO, the Attention-guided Perception Policy Optimization algorithm that leverages token-level dense rewards to improve model's fine-grained perception. The core idea behind APPO is to optimize those tokens from different responses that primarily focus on the same crucial video frame (called intra-group perception tokens). Experimental results on diverse video benchmarks and models with different scales (3/7B) demonstrate APPO consistently outperforms GRPO and DAPO (0.5%~4%). We hope our work provides a promising approach to effectively enhance model's perception abilities through reasoning in a low-cost manner, serving diverse scenarios and demands.
- Abstract(参考訳): 複雑なビデオ推論は、専門家(例えばPh.D.Science)レベルの推論よりもきめ細かな認識に過度に依存している。
広範な経験的観察を通して、我々は知覚の重大な影響を認識した。
特に知覚能力がほぼ固定されている場合、Qwen3-8BからOpenAI-o3への推論を強化することで、パフォーマンスはわずか0.7%向上した。
逆に、知覚モデルスケール(7Bから32B)の最小限の変更でさえ、性能を1.4%向上させる。
したがって、高価な微粒な注釈情報を必要とせず、推論によって知覚能力を高める方法を検討することは価値がある。
この目的を達成するために,トークンレベルの高密度報酬を活用してモデルの微粒化知覚を改善するアテンション誘導パーセプションポリシー最適化アルゴリズムであるAPPOを提案する。
APPOの基本的な考え方は、同じ重要なビデオフレーム(グループ内認識トークンと呼ばれる)に焦点を当てた、異なる応答からこれらのトークンを最適化することだ。
多様なビデオベンチマークと異なるスケール(3/7B)のモデルによる実験結果から、APPOはGRPOとDAPO(0.5%〜4%)を一貫して上回っていることが示された。
私たちの研究は、さまざまなシナリオや要求を、低コストで推論することで、モデルの知覚能力を効果的に向上する、有望なアプローチを提供してくれることを願っています。
関連論文リスト
- RecGPT-V2 Technical Report [41.57739441038769]
大規模言語モデル(LLM)は、暗黙の行動パターンマッチングから明示的な意図推論へ、レコメンデータシステムを変換する大きな可能性を示している。
提案するRecGPT-V2には,暗黙的な行動パターンマッチングから明示的な意図推論へ,レコメンデータシステムを変換する4つの重要なイノベーションがある。
タオバオのオンラインA/Bテストでは、+2.98% CTR、+3.71% IPV、+2.19% TV、+11.46% NERが大幅に改善された。
論文 参考訳(メタデータ) (2025-12-16T15:40:44Z) - What Is Preference Optimization Doing, How and Why? [73.78865043839939]
一般的な考え方は、DPOは教師付き学習であり、PPOは強化学習である。
まず、勾配に基づく更新の目標方向を調べ、DPOが安定した目標に従うのに対し、PPOは探索とエクスプロイトのバランスをとる動的目標に従う。
第2に、PO法における3つの重要な要素である正の学習、負の学習、損失再重み付けの役割について検討する。
論文 参考訳(メタデータ) (2025-11-30T08:27:59Z) - Spotlight on Token Perception for Multimodal Reinforcement Learning [65.97597482517425]
RLVR(Reinforcement Learning with Verifiable Rewards)は、LVLM(Large Vision-Language Models)の推論能力を向上した。
本稿では,トークン認識の新しい視点を通して,マルチモーダルRLVRの先駆的な探索を行う。
本稿では、トークン認識を明示的に活用して学習信号を洗練する新しいポリシー勾配アルゴリズムである視覚知覚政策最適化(VPPO)を提案する。
論文 参考訳(メタデータ) (2025-10-10T11:25:33Z) - Unleashing Perception-Time Scaling to Multimodal Reasoning Models [60.578179197783754]
推論時間スケーリングの最近の進歩は、LVLM(Large Vision-Language Models)の推論能力を大幅に向上させた。
この成功に触発されて、同様の戦略がマルチモーダル推論に適用されたが、視覚的知覚への影響は未だ不明である。
本稿では,トークンに富む知覚を促進する新しいパラダイムである知覚時間スケーリング(PTS)を提案し,複雑な知覚問題を中間的抽出可能なサブプロブレムに分解する。
論文 参考訳(メタデータ) (2025-10-10T03:17:52Z) - Perception-Aware Policy Optimization for Multimodal Reasoning [79.56070395437898]
現在のマルチモーダル推論における誤りの主な原因は、視覚入力の知覚にある。
提案するPAPOは,モデルが推論を学習しながら知覚を学習することを奨励する,新しいポリシー勾配アルゴリズムである。
知覚誤りの30.5%が有意に減少し,PAPOによる知覚能力の向上が示唆された。
論文 参考訳(メタデータ) (2025-07-08T23:22:34Z) - ReAgent-V: A Reward-Driven Multi-Agent Framework for Video Understanding [71.654781631463]
ReAgent-Vは、新しいエージェントビデオ理解フレームワークである。
推論中に効率の良いフレーム選択とリアルタイムの報酬生成を統合する。
12のデータセットに対する大規模な実験は、一般化と推論において大きな成果を上げている。
論文 参考訳(メタデータ) (2025-06-02T04:23:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。