論文の概要: Perceptual Quality Assessment for Embodied AI
- arxiv url: http://arxiv.org/abs/2505.16815v1
- Date: Thu, 22 May 2025 15:51:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:48.420906
- Title: Perceptual Quality Assessment for Embodied AI
- Title(参考訳): 身体的AIの知覚的品質評価
- Authors: Chunyi Li, Jiaohao Xiao, Jianbo Zhang, Farong Wen, Zicheng Zhang, Yuan Tian, Xiangyang Zhu, Xiaohong Liu, Zhengxue Cheng, Weisi Lin, Guangtao Zhai,
- Abstract要約: Embodied AIは近年急速に発展しているが、現在も主に実験室に配備されている。
具体的タスク、すなわちロボットの知覚品質における画像のユーザビリティを評価するためのIQA手法は存在しない。
- 参考スコア(独自算出の注目度): 66.96928199019129
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Embodied AI has developed rapidly in recent years, but it is still mainly deployed in laboratories, with various distortions in the Real-world limiting its application. Traditionally, Image Quality Assessment (IQA) methods are applied to predict human preferences for distorted images; however, there is no IQA method to assess the usability of an image in embodied tasks, namely, the perceptual quality for robots. To provide accurate and reliable quality indicators for future embodied scenarios, we first propose the topic: IQA for Embodied AI. Specifically, we (1) based on the Mertonian system and meta-cognitive theory, constructed a perception-cognition-decision-execution pipeline and defined a comprehensive subjective score collection process; (2) established the Embodied-IQA database, containing over 36k reference/distorted image pairs, with more than 5m fine-grained annotations provided by Vision Language Models/Vision Language Action-models/Real-world robots; (3) trained and validated the performance of mainstream IQA methods on Embodied-IQA, demonstrating the need to develop more accurate quality indicators for Embodied AI. We sincerely hope that through evaluation, we can promote the application of Embodied AI under complex distortions in the Real-world. Project page: https://github.com/lcysyzxdxc/EmbodiedIQA
- Abstract(参考訳): Embodied AIは近年急速に発展しているが、いまだ主に実験室に配備されており、実世界では様々な歪みが応用を制限している。
従来,画像品質評価(IQA)法は歪んだ画像に対する人間の嗜好を予測するために用いられてきたが,ロボットの知覚的品質を具現化した作業において,画像のユーザビリティを評価するためのIQA法は存在しない。
将来の実施シナリオに対して,正確かつ信頼性の高い品質指標を提供するために,まず,そのトピックを提案する。
具体的には,(1)メルトン的システムとメタ認知理論に基づいて,認識・判断・実行パイプラインを構築し,包括的主観的スコア収集プロセスを定義し,(2)36k以上の参照・歪んだ画像対を含むEmbodied-IQAデータベースを構築した。
我々は、評価を通じて、現実世界の複雑な歪みの下で、Embodied AIの適用を促進することを、誠実に願っている。
プロジェクトページ:https://github.com/lcysyzxdxc/EmbodiedIQA
関連論文リスト
- Embodied Image Quality Assessment for Robotic Intelligence [36.80460733311791]
まず,画像品質評価(EIQA)フレームワークを提案する。
我々は,ロボットの下流作業に基づく入力画像の評価基準を確立する。
実験により、エンボディ画像の品質評価は人間と異なることが示された。
論文 参考訳(メタデータ) (2024-12-25T04:29:22Z) - AI-generated Image Quality Assessment in Visual Communication [72.11144790293086]
AIGI-VCは、視覚コミュニケーションにおけるAI生成画像の品質評価データベースである。
データセットは、14の広告トピックと8つの感情タイプにまたがる2500のイメージで構成されている。
粗い人間の嗜好アノテーションときめ細かい嗜好記述を提供し、選好予測、解釈、推論におけるIQAメソッドの能力をベンチマークする。
論文 参考訳(メタデータ) (2024-12-20T08:47:07Z) - Quality Assessment for AI Generated Images with Instruction Tuning [58.41087653543607]
我々はまず,AIGCIQA2023+と呼ばれるAIGIのための画像品質評価(IQA)データベースを構築した。
本稿では,AIGIに対する人間の嗜好を評価するためのMINT-IQAモデルを提案する。
論文 参考訳(メタデータ) (2024-05-12T17:45:11Z) - AIGCOIQA2024: Perceptual Quality Assessment of AI Generated Omnidirectional Images [70.42666704072964]
我々はAI生成の全方位画像IQAデータベースAIIGCOIQA2024を構築した。
3つの視点から人間の視覚的嗜好を評価するために、主観的IQA実験を行った。
我々は,データベース上での最先端IQAモデルの性能を評価するためのベンチマーク実験を行った。
論文 参考訳(メタデータ) (2024-04-01T10:08:23Z) - Perceptual Attacks of No-Reference Image Quality Models with
Human-in-the-Loop [113.75573175709573]
NR-IQAモデルの知覚的堅牢性を調べるための最初の試みの1つを行う。
我々は,4つの完全参照IQAモデルの下で,知識駆動のNR-IQA法とデータ駆動のNR-IQA法を検証した。
4つのNR-IQAモデルは全て、提案した知覚的攻撃に対して脆弱であることがわかった。
論文 参考訳(メタデータ) (2022-10-03T13:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。