論文の概要: EvoIQA - Explaining Image Distortions with Evolved White-Box Logic
- arxiv url: http://arxiv.org/abs/2603.15887v1
- Date: Mon, 16 Mar 2026 20:31:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-18 17:42:06.977165
- Title: EvoIQA - Explaining Image Distortions with Evolved White-Box Logic
- Title(参考訳): EvoIQA - 進化したWhite-Box論理による画像歪みの説明
- Authors: Ruchika Gupta, Illya Bakurov, Nathan Haut, Wolfgang Banzhaf,
- Abstract要約: 画像品質評価のための完全に説明可能なシンボリック回帰フレームワークであるEvoIQAを提案する。
我々のフレームワークは、構造、色、情報理論の劣化を観測可能な数学的方程式にマッピングする。
その結果、進化したGPモデルは、予測と人間の視覚的嗜好の強い一致を一貫して達成できることを示した。
- 参考スコア(独自算出の注目度): 2.1012555200253678
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditional Image Quality Assessment (IQA) metrics typically fall into one of two extremes: rigid, hand-crafted mathematical models or "black-box" deep learning architectures that completely lack interpretability. To bridge this gap, we propose EvoIQA, a fully explainable symbolic regression framework based on Genetic Programming that Evolves explicit, human-readable mathematical formulas for image quality assessment (IQA). Utilizing a rich terminal set from the VSI, VIF, FSIM, and HaarPSI metrics, our framework inherently maps structural, chromatic, and information-theoretic degradations into observable mathematical equations. Our results demonstrate that the evolved GP models consistently achieve strong alignment between the predictions and human visual preferences. Furthermore, they not only outperform traditional hand-crafted metrics but also achieve performance parity with complex, state-of-the-art deep learning models like DB-CNN, proving that we no longer have to sacrifice interpretability for state-of-the-art performance.
- Abstract(参考訳): 従来の画像品質評価(IQA)メトリクスは通常、厳密で手作りの数学的モデルと、完全に解釈不可能な「ブラックボックス」ディープラーニングアーキテクチャの2つの極端の1つに該当する。
このギャップを埋めるために、画像品質評価(IQA)のための明示的で人間可読な数学的公式を進化させる遺伝的プログラミングに基づく、完全に説明可能な記号回帰フレームワークであるEvoIQAを提案する。
VSI, VIF, FSIM, HaarPSI 測定値の豊富な端末を用いて,本フレームワークは構造, 色, 情報理論の劣化を観測可能な数学的方程式にマッピングする。
その結果、進化したGPモデルは、予測と人間の視覚的嗜好の強い一致を一貫して達成できることを示した。
さらに、従来の手作りのメトリクスを上回るだけでなく、DB-CNNのような複雑な最先端のディープラーニングモデルでパフォーマンスの同等性も達成しています。
関連論文リスト
- Bridging Cognitive Gap: Hierarchical Description Learning for Artistic Image Aesthetics Assessment [51.40989269202702]
審美的品質評価タスクは,AIGCの定量的評価システムの開発に不可欠である。
本研究では,記述生成による美的次元の分離を図った芸術的画像の美的評価フレームワークであるArtQuantを提案する。
提案手法は,従来のトレーニングの33%しか必要とせず,いくつかのデータセット上での最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-12-29T12:18:26Z) - Hierarchical Process Reward Models are Symbolic Vision Learners [56.94353087007494]
記号型コンピュータビジョンは、明示的な論理規則と構造化された表現を通して図を表現し、機械ビジョンの解釈可能な理解を可能にする。
これは、ピクセルベースのビジュアルモデルと根本的に異なる学習パラダイムを必要とする。
本稿では, インプットダイアグラムをプリミティブにエンコードし, インプットダイアグラムを再構築する自己教師型オートエンコーダを提案する。
論文 参考訳(メタデータ) (2025-12-02T18:46:40Z) - Combining feature-based approaches with graph neural networks and symbolic regression for synergistic performance and interpretability [0.0]
MatterVialは、材料科学における機能ベースの機械学習のための革新的なハイブリッドフレームワークである。
当社のアプローチは,従来の特徴ベースモデルの化学的透明性とディープラーニングアーキテクチャの予測能力を組み合わせたものです。
サブロゲートモデルとシンボリックレグレッションを利用する統合的解釈可能性モジュールは、潜伏したGNN由来の記述子を明示的で物理的に意味のある式にデコードする。
論文 参考訳(メタデータ) (2025-09-02T16:45:02Z) - Scene Perceived Image Perceptual Score (SPIPS): combining global and local perception for image quality assessment [0.0]
深層学習と人間の知覚のギャップを埋める新しいIQA手法を提案する。
我々のモデルは、深い特徴を高レベルの意味情報と低レベルの知覚の詳細に分解し、それぞれのストリームを別々に扱う。
このハイブリッド設計により、グローバルコンテキストと複雑な画像の詳細の両方を評価し、人間の視覚過程をより良く反映することができる。
論文 参考訳(メタデータ) (2025-04-24T04:06:07Z) - Quality Assessment for AI Generated Images with Instruction Tuning [58.41087653543607]
我々はまず,AIGCIQA2023+と呼ばれるAIGIのための画像品質評価(IQA)データベースを構築した。
本稿では,AIGIに対する人間の嗜好を評価するためのMINT-IQAモデルを提案する。
論文 参考訳(メタデータ) (2024-05-12T17:45:11Z) - Large Multi-modality Model Assisted AI-Generated Image Quality Assessment [53.182136445844904]
本稿では,AI生成画像品質評価モデル(MA-AGIQA)を提案する。
セマンティックインフォームドガイダンスを使用して意味情報を感知し、慎重に設計されたテキストプロンプトを通してセマンティックベクターを抽出する。
最先端のパフォーマンスを実現し、AI生成画像の品質を評価する上で優れた一般化能力を示す。
論文 参考訳(メタデータ) (2024-04-27T02:40:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。