論文の概要: Feedback is Needed for Retakes: An Explainable Poor Image Notification
Framework for the Visually Impaired
- arxiv url: http://arxiv.org/abs/2211.09427v1
- Date: Thu, 17 Nov 2022 09:22:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 15:10:21.879412
- Title: Feedback is Needed for Retakes: An Explainable Poor Image Notification
Framework for the Visually Impaired
- Title(参考訳): リテイクにはフィードバックが必要:視覚障害者のための説明不能なイメージ通知フレームワーク
- Authors: Kazuya Ohata, Shunsuke Kitada, Hitoshi Iyatomi
- Abstract要約: 筆者らのフレームワークはまず画像の品質を判定し,高品質であると判定された画像のみを用いてキャプションを生成する。
ユーザは、画像品質が低ければ再取り込みする欠陥機能により通知され、このサイクルは、入力画像が高品質であると判断されるまで繰り返される。
- 参考スコア(独自算出の注目度): 6.0158981171030685
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a simple yet effective image captioning framework that can
determine the quality of an image and notify the user of the reasons for any
flaws in the image. Our framework first determines the quality of images and
then generates captions using only those images that are determined to be of
high quality. The user is notified by the flaws feature to retake if image
quality is low, and this cycle is repeated until the input image is deemed to
be of high quality. As a component of the framework, we trained and evaluated a
low-quality image detection model that simultaneously learns difficulty in
recognizing images and individual flaws, and we demonstrated that our proposal
can explain the reasons for flaws with a sufficient score. We also evaluated a
dataset with low-quality images removed by our framework and found improved
values for all four common metrics (e.g., BLEU-4, METEOR, ROUGE-L, CIDEr),
confirming an improvement in general-purpose image captioning capability. Our
framework would assist the visually impaired, who have difficulty judging image
quality.
- Abstract(参考訳): 本稿では,画像の品質を判定し,画像の欠陥の原因をユーザに通知する,シンプルで効果的な画像キャプションフレームワークを提案する。
本フレームワークはまず画像の品質を判定し,高品質であると判定された画像のみを用いてキャプションを生成する。
ユーザは、画像品質が低ければ再取り込みする欠陥機能により通知され、このサイクルは、入力画像が高品質であると判断されるまで繰り返される。
フレームワークの構成要素として,画像認識の難しさと個々の欠陥を同時に学習する低品質画像検出モデルを訓練し,評価し,問題点の理由を十分なスコアで説明できることを実証した。
また,このフレームワークによって削除された低品質画像を用いたデータセットを評価し,汎用画像キャプション能力の向上を確認し,4つの共通メトリクス(bleu-4,meteor,rouge-l,ciderなど)の値の改善を確認した。
我々の枠組みは、画質の判断が難しい視覚障害者を支援する。
関連論文リスト
- Dual-Representation Interaction Driven Image Quality Assessment with Restoration Assistance [11.983231834400698]
歪み画像の非参照画像品質評価は、画像内容のばらつきと歪みの多様性のために常に難しい問題である。
以前のIQAモデルは、主に、品質スコア予測のための品質認識表現を得るために、合成画像の明示的な単一品質特徴を符号化していた。
低画質画像の劣化・品質情報を別々にモデル化するDRI法を提案する。
論文 参考訳(メタデータ) (2024-11-26T12:48:47Z) - Mitigating Perception Bias: A Training-Free Approach to Enhance LMM for Image Quality Assessment [18.622560025505233]
画像品質評価のためのトレーニング不要な脱バイアスフレームワークを提案する。
まず,画像品質を著しく劣化させる意味保存歪みについて検討する。
次に、これらの特定の歪みをクエリやテストイメージに適用します。
品質推測の間、クエリ画像とそれに対応する劣化バージョンの両方をLMMに供給する。
劣化した画像は、セマンティックな違いに関わらず、常に品質が劣っていると評価される。
論文 参考訳(メタデータ) (2024-11-19T15:00:59Z) - Dual-Branch Network for Portrait Image Quality Assessment [76.27716058987251]
ポートレート画像品質評価のためのデュアルブランチネットワーク(PIQA)を提案する。
我々は2つのバックボーンネットワーク(textiti.e., Swin Transformer-B)を使用して、肖像画全体と顔画像から高品質な特徴を抽出する。
我々は、画像シーンの分類と品質評価モデルであるLIQEを利用して、品質認識とシーン固有の特徴を補助的特徴として捉えている。
論文 参考訳(メタデータ) (2024-05-14T12:43:43Z) - Interpretable Image Quality Assessment via CLIP with Multiple
Antonym-Prompt Pairs [1.6317061277457001]
基準画像品質評価(NR-IQA)は、対応する原画像なしで画像の知覚品質を推定するタスクである。
本稿では,事前学習した視覚モデルの能力を生かした新しいゼロショットかつ解釈可能なNRIQA法を提案する。
実験の結果,提案手法は既存のゼロショットNR-IQA法よりも精度が高いことがわかった。
論文 参考訳(メタデータ) (2023-08-24T21:37:00Z) - Helping Visually Impaired People Take Better Quality Pictures [52.03016269364854]
我々は、視覚障害者が共通の技術的歪みの発生を最小限に抑えるためのツールを開発する。
また、ユーザによる品質問題の緩和を支援する、プロトタイプのフィードバックシステムも作成しています。
論文 参考訳(メタデータ) (2023-05-14T04:37:53Z) - Test your samples jointly: Pseudo-reference for image quality evaluation [3.2634122554914]
品質評価の精度を向上させるため,同じ内容の異なる画像を共同でモデル化することを提案する。
実験の結果,本手法では,同一の新たなコンテンツを示す複数の画像の特徴を組み合わせることができ,評価精度が向上することがわかった。
論文 参考訳(メタデータ) (2023-04-07T17:59:27Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z) - Learning Conditional Knowledge Distillation for Degraded-Reference Image
Quality Assessment [157.1292674649519]
劣化参照IQA(DR-IQA)という実用的な解を提案する。
DR-IQAはIRモデルの入力、劣化したイメージを参照として利用する。
私たちの結果は、フル参照設定のパフォーマンスに近いものもあります。
論文 参考訳(メタデータ) (2021-08-18T02:35:08Z) - Towards Unsupervised Deep Image Enhancement with Generative Adversarial
Network [92.01145655155374]
監視されていない画像強調生成ネットワーク(UEGAN)を提案する。
教師なしの方法で所望の特性を持つ画像の集合から、対応する画像と画像のマッピングを学習する。
その結果,提案モデルは画像の美的品質を効果的に向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:22:46Z) - Inducing Predictive Uncertainty Estimation for Face Recognition [102.58180557181643]
顔画像の「マッドペア」から画像品質訓練データを自動的に生成する手法を提案する。
生成したデータを用いて、顔画像の信頼度を推定するために、PCNetと呼ばれる軽量な予測信頼ネットワークを訓練する。
論文 参考訳(メタデータ) (2020-09-01T17:52:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。