論文の概要: VQualA 2025 Challenge on Visual Quality Comparison for Large Multimodal Models: Methods and Results
- arxiv url: http://arxiv.org/abs/2509.09190v1
- Date: Thu, 11 Sep 2025 07:00:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-12 16:52:24.253731
- Title: VQualA 2025 Challenge on Visual Quality Comparison for Large Multimodal Models: Methods and Results
- Title(参考訳): VQualA 2025 大規模マルチモーダルモデルの視覚的品質比較に関する課題:方法と結果
- Authors: Hanwei Zhu, Haoning Wu, Zicheng Zhang, Lingyu Zhu, Yixuan Li, Peilin Chen, Shiqi Wang, Chris Wei Zhou, Linhan Cao, Wei Sun, Xiangyang Zhu, Weixia Zhang, Yucheng Zhu, Jing Liu, Dandan Zhu, Guangtao Zhai, Xiongkuo Min, Zhichao Zhang, Xinyue Li, Shubo Xu, Anh Dao, Yifan Li, Hongyuan Yu, Jiaojiao Yi, Yiding Tian, Yupeng Wu, Feiran Sun, Lijuan Liao, Song Jiang,
- Abstract要約: VQualA 2025 Challenge on Visual Quality Comparison for Large Multimodal Models ICCV 2025 Workshop on Visual Quality Assessment に参加して
課題は、複数の画像の視覚的品質の違いについて、オープンで詳細な推論を行うための最先端のLMMの評価と強化である。
約100人の参加者がエントリーを提出し、5つのモデルが品質評価に関する命令調整型LMMの出現能力を実証した。
- 参考スコア(独自算出の注目度): 106.15762208088985
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a summary of the VQualA 2025 Challenge on Visual Quality Comparison for Large Multimodal Models (LMMs), hosted as part of the ICCV 2025 Workshop on Visual Quality Assessment. The challenge aims to evaluate and enhance the ability of state-of-the-art LMMs to perform open-ended and detailed reasoning about visual quality differences across multiple images. To this end, the competition introduces a novel benchmark comprising thousands of coarse-to-fine grained visual quality comparison tasks, spanning single images, pairs, and multi-image groups. Each task requires models to provide accurate quality judgments. The competition emphasizes holistic evaluation protocols, including 2AFC-based binary preference and multi-choice questions (MCQs). Around 100 participants submitted entries, with five models demonstrating the emerging capabilities of instruction-tuned LMMs on quality assessment. This challenge marks a significant step toward open-domain visual quality reasoning and comparison and serves as a catalyst for future research on interpretable and human-aligned quality evaluation systems.
- Abstract(参考訳): 本稿では、ICCV 2025 Workshop on Visual Quality Assessment(ICCV 2025ワークショップ)の一環として開催されている大型マルチモーダルモデル(LMM)の視覚品質比較に関するVQualA 2025チャレンジの概要について述べる。
この課題は、複数の画像の視覚的品質の違いについて、オープンで詳細な推論を行うための最先端のLMMの性能を評価し、向上することを目的としている。
この目的のために、コンペティションは、数千の粗い粒度の視覚的品質比較タスクからなる新しいベンチマークを導入し、単一の画像、ペア、マルチイメージグループにまたがる。
各タスクは、正確な品質判断を提供するモデルを必要とする。
このコンペティションは2AFCベースのバイナリ・プライオリティやMCQ(Multi-choice Question)を含む総合的な評価プロトコルを強調している。
約100人の参加者がエントリーを提出し、5つのモデルが品質評価に関する命令調整型LMMの出現能力を実証した。
この課題は、オープンドメインの視覚的品質評価と比較に向けての重要なステップであり、解釈可能な品質評価システムと人間による品質評価システムに関する将来の研究の触媒となる。
関連論文リスト
- VQualA 2025 Challenge on Image Super-Resolution Generated Content Quality Assessment: Methods and Results [65.82676254264837]
本稿では,画像超解像生成コンテンツ品質評価データセットに基づく ISRGC-Q Challenge を提案する。
この課題の第一の目的は、現代の超解像技術によって導入されたユニークな人工物を分析し、知覚的品質を効果的に評価することである。
論文 参考訳(メタデータ) (2025-09-08T08:07:50Z) - VQualA 2025 Challenge on Face Image Quality Assessment: Methods and Results [96.54702713309052]
VQuala 2025 顔画像品質評価(FIQA)への挑戦
本報告では,FIQAの実用化に向けた方法論と成果を概説する。
論文 参考訳(メタデータ) (2025-08-25T19:48:52Z) - VQA$^2$: Visual Question Answering for Video Quality Assessment [76.81110038738699]
ビデオ品質アセスメント(VQA)は、低レベルの視覚知覚において古典的な分野である。
画像領域における最近の研究は、視覚質問応答(VQA)が視覚的品質を著しく低レベルに評価できることを示した。
VQA2インストラクションデータセットは,ビデオ品質評価に焦点をあてた最初の視覚的質問応答インストラクションデータセットである。
VQA2シリーズは、ビデオにおける空間的時間的品質の詳細の知覚を高めるために、視覚的および運動的トークンをインターリーブする。
論文 参考訳(メタデータ) (2024-11-06T09:39:52Z) - Q-Ground: Image Quality Grounding with Large Multi-modality Models [61.72022069880346]
Q-Groundは、大規模な視覚的品質グラウンドに取り組むための最初のフレームワークである。
Q-Groundは、大規模なマルチモダリティモデルと詳細な視覚的品質分析を組み合わせる。
コントリビューションの中心は、QGround-100Kデータセットの導入です。
論文 参考訳(メタデータ) (2024-07-24T06:42:46Z) - VisualCritic: Making LMMs Perceive Visual Quality Like Humans [65.59779450136399]
広視野画像の主観的品質評価のための最初のLMMであるVisualCriticを提案する。
VisualCriticは、データセット固有の適応操作を必要とせずに、最初からさまざまなデータにまたがって使用することができる。
論文 参考訳(メタデータ) (2024-03-19T15:07:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。