論文の概要: EyeSim-VQA: A Free-Energy-Guided Eye Simulation Framework for Video Quality Assessment
- arxiv url: http://arxiv.org/abs/2506.11549v1
- Date: Fri, 13 Jun 2025 08:00:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-16 17:50:49.70598
- Title: EyeSim-VQA: A Free-Energy-Guided Eye Simulation Framework for Video Quality Assessment
- Title(参考訳): EyeSim-VQA:ビデオ品質評価のための自由エネルギー誘導型アイシミュレーションフレームワーク
- Authors: Zhaoyang Wang, Wen Lu, Jie Li, Lihuo He, Maoguo Gong, Xinbo Gao,
- Abstract要約: EyeSimVQAは、自由エネルギーベースの自己修復を取り入れた新しいVQAフレームワークである。
現状の手法と比較して,EyeSimVQAは競争力や性能に優れることを示す。
- 参考スコア(独自算出の注目度): 68.77813885751308
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Free-energy-guided self-repair mechanisms have shown promising results in image quality assessment (IQA), but remain under-explored in video quality assessment (VQA), where temporal dynamics and model constraints pose unique challenges. Unlike static images, video content exhibits richer spatiotemporal complexity, making perceptual restoration more difficult. Moreover, VQA systems often rely on pre-trained backbones, which limits the direct integration of enhancement modules without affecting model stability. To address these issues, we propose EyeSimVQA, a novel VQA framework that incorporates free-energy-based self-repair. It adopts a dual-branch architecture, with an aesthetic branch for global perceptual evaluation and a technical branch for fine-grained structural and semantic analysis. Each branch integrates specialized enhancement modules tailored to distinct visual inputs-resized full-frame images and patch-based fragments-to simulate adaptive repair behaviors. We also explore a principled strategy for incorporating high-level visual features without disrupting the original backbone. In addition, we design a biologically inspired prediction head that models sweeping gaze dynamics to better fuse global and local representations for quality prediction. Experiments on five public VQA benchmarks demonstrate that EyeSimVQA achieves competitive or superior performance compared to state-of-the-art methods, while offering improved interpretability through its biologically grounded design.
- Abstract(参考訳): 自由エネルギー誘導型自己修復機構は、画像品質評価(IQA)において有望な結果を示しているが、時間的ダイナミクスとモデル制約が固有の課題を引き起こすビデオ品質評価(VQA)では未探索のままである。
静的画像とは異なり、ビデオコンテンツは時空間の複雑さが増し、知覚的修復がより困難になる。
さらに、VQAシステムは、しばしば事前訓練されたバックボーンに依存し、モデル安定性に影響を与えることなく拡張モジュールの直接統合を制限する。
これらの課題に対処するため,自由エネルギーによる自己修復を取り入れた新しいVQAフレームワークであるEyeSimVQAを提案する。
二重ブランチアーキテクチャを採用し、グローバルな知覚評価のための美的ブランチと、きめ細かい構造解析と意味解析のための技術ブランチを備えている。
各ブランチは、視覚的なインプットを縮小したフルフレームイメージと、適応的な修復動作をシミュレートするパッチベースのフラグメントに合わせた、特別な拡張モジュールを統合している。
また、元のバックボーンを乱すことなく、ハイレベルな視覚的特徴を取り入れるための原則的戦略についても検討する。
さらに,生物にインスパイアされた予測ヘッドを設計し,視線力学を概観し,世界的および地域的表現を融合させて品質予測を行う。
5つの公開VQAベンチマークの実験では、EyeSimVQAは最先端の手法と比較して、競争力や優れた性能を達成し、生物学的基盤設計による解釈性の向上を提供している。
関連論文リスト
- DGIQA: Depth-guided Feature Attention and Refinement for Generalizable Image Quality Assessment [9.851063768646847]
非参照画像品質評価における長年の課題は、自然歪みを目にしない客観的な一般化の欠如である。
我々は,シーンの深度と空間的特徴を構造認識表現に蒸留する,Depth-Guided Cross-attention and refinement 機構を新たに開発した。
マルチモーダルアテンションベースプロジェクション関数としてTCBとDepth-CARを実装し,最も有用な特徴を選択する。
実験により,提案したDGIQAモデルにより,総合的および真正なベンチマークデータセット上での最先端(SOTA)性能が得られた。
論文 参考訳(メタデータ) (2025-05-29T20:52:56Z) - Q-Insight: Understanding Image Quality via Visual Reinforcement Learning [27.26829134776367]
画像品質評価(IQA)は、画像の知覚的視覚的品質に焦点を当て、画像再構成、圧縮、生成などの下流タスクにおいて重要な役割を果たす。
グループ相対ポリシー最適化(GRPO)に基づく強化学習に基づくモデルQ-Insightを提案する。
評価結果から,Q-Insightは,評価結果の回帰と劣化知覚の両面において,既存の最先端手法を大幅に上回っていることを示す。
論文 参考訳(メタデータ) (2025-03-28T17:59:54Z) - IQPFR: An Image Quality Prior for Blind Face Restoration and Beyond [56.99331967165238]
Blind Face Restoration (BFR)は、劣化した低品質(LQ)の顔画像を高品質(HQ)の出力に再構成する課題に対処する。
本研究では,非参照画像品質評価(NR-IQA)モデルから得られた画像品質優先(IQP)を組み込んだ新しいフレームワークを提案する。
提案手法は,複数のベンチマークにおいて最先端技術より優れている。
論文 参考訳(メタデータ) (2025-03-12T11:39:51Z) - Large Multi-modality Model Assisted AI-Generated Image Quality Assessment [53.182136445844904]
本稿では,AI生成画像品質評価モデル(MA-AGIQA)を提案する。
セマンティックインフォームドガイダンスを使用して意味情報を感知し、慎重に設計されたテキストプロンプトを通してセマンティックベクターを抽出する。
最先端のパフォーマンスを実現し、AI生成画像の品質を評価する上で優れた一般化能力を示す。
論文 参考訳(メタデータ) (2024-04-27T02:40:36Z) - Analysis of Video Quality Datasets via Design of Minimalistic Video Quality Models [71.06007696593704]
BVQA(Blind Quality Assessment)は、実世界のビデオ対応メディアアプリケーションにおけるエンドユーザの視聴体験の監視と改善に不可欠である。
実験分野として、BVQAモデルの改良は、主に数個の人間の評価されたVQAデータセットに基づいて測定されている。
最小主義的BVQAモデルを用いて,VQAデータセットの第一種計算解析を行う。
論文 参考訳(メタデータ) (2023-07-26T06:38:33Z) - Visual Mechanisms Inspired Efficient Transformers for Image and Video
Quality Assessment [5.584060970507507]
人間の視覚系における知覚機構は、品質知覚の生成において重要な役割を担っている。
本稿では,効率的なウィンドウ変換アーキテクチャを用いた非参照視覚品質評価のための一般的なフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-28T07:55:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。