論文の概要: Feedback is Needed for Retakes: An Explainable Poor Image Notification
Framework for the Visually Impaired
- arxiv url: http://arxiv.org/abs/2211.09427v1
- Date: Thu, 17 Nov 2022 09:22:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 15:10:21.879412
- Title: Feedback is Needed for Retakes: An Explainable Poor Image Notification
Framework for the Visually Impaired
- Title(参考訳): リテイクにはフィードバックが必要:視覚障害者のための説明不能なイメージ通知フレームワーク
- Authors: Kazuya Ohata, Shunsuke Kitada, Hitoshi Iyatomi
- Abstract要約: 筆者らのフレームワークはまず画像の品質を判定し,高品質であると判定された画像のみを用いてキャプションを生成する。
ユーザは、画像品質が低ければ再取り込みする欠陥機能により通知され、このサイクルは、入力画像が高品質であると判断されるまで繰り返される。
- 参考スコア(独自算出の注目度): 6.0158981171030685
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a simple yet effective image captioning framework that can
determine the quality of an image and notify the user of the reasons for any
flaws in the image. Our framework first determines the quality of images and
then generates captions using only those images that are determined to be of
high quality. The user is notified by the flaws feature to retake if image
quality is low, and this cycle is repeated until the input image is deemed to
be of high quality. As a component of the framework, we trained and evaluated a
low-quality image detection model that simultaneously learns difficulty in
recognizing images and individual flaws, and we demonstrated that our proposal
can explain the reasons for flaws with a sufficient score. We also evaluated a
dataset with low-quality images removed by our framework and found improved
values for all four common metrics (e.g., BLEU-4, METEOR, ROUGE-L, CIDEr),
confirming an improvement in general-purpose image captioning capability. Our
framework would assist the visually impaired, who have difficulty judging image
quality.
- Abstract(参考訳): 本稿では,画像の品質を判定し,画像の欠陥の原因をユーザに通知する,シンプルで効果的な画像キャプションフレームワークを提案する。
本フレームワークはまず画像の品質を判定し,高品質であると判定された画像のみを用いてキャプションを生成する。
ユーザは、画像品質が低ければ再取り込みする欠陥機能により通知され、このサイクルは、入力画像が高品質であると判断されるまで繰り返される。
フレームワークの構成要素として,画像認識の難しさと個々の欠陥を同時に学習する低品質画像検出モデルを訓練し,評価し,問題点の理由を十分なスコアで説明できることを実証した。
また,このフレームワークによって削除された低品質画像を用いたデータセットを評価し,汎用画像キャプション能力の向上を確認し,4つの共通メトリクス(bleu-4,meteor,rouge-l,ciderなど)の値の改善を確認した。
我々の枠組みは、画質の判断が難しい視覚障害者を支援する。
関連論文リスト
- DP-IQA: Utilizing Diffusion Prior for Blind Image Quality Assessment in the Wild [54.139923409101044]
拡散先行型IQA(DP-IQA)と呼ばれる新しいIQA法を提案する。
トレーニング済みの安定拡散をバックボーンとして使用し、復調するU-Netから多レベル特徴を抽出し、それらをデコードして画質スコアを推定する。
上記のモデルの知識をCNNベースの学生モデルに抽出し、適用性を高めるためにパラメータを大幅に削減する。
論文 参考訳(メタデータ) (2024-05-30T12:32:35Z) - Dual-Branch Network for Portrait Image Quality Assessment [76.27716058987251]
ポートレート画像品質評価のためのデュアルブランチネットワーク(PIQA)を提案する。
我々は2つのバックボーンネットワーク(textiti.e., Swin Transformer-B)を使用して、肖像画全体と顔画像から高品質な特徴を抽出する。
我々は、画像シーンの分類と品質評価モデルであるLIQEを利用して、品質認識とシーン固有の特徴を補助的特徴として捉えている。
論文 参考訳(メタデータ) (2024-05-14T12:43:43Z) - Quality-Aware Image-Text Alignment for Real-World Image Quality Assessment [8.431867616409958]
No-Reference Image Quality Assessment (NR-IQA) は、高画質の参照画像が利用できない場合に、人間の知覚に合わせて画像品質を測定する方法に焦点を当てている。
最先端のNR-IQAアプローチの大部分における注釈付き平均オピニオンスコア(MOS)への依存は、そのスケーラビリティと実際のシナリオへの適用性を制限している。
ラベル付きMOSを必要としないCLIPベースの自己教師型意見認識手法であるQuariCLIPを提案する。
論文 参考訳(メタデータ) (2024-03-17T11:32:18Z) - Interpretable Image Quality Assessment via CLIP with Multiple
Antonym-Prompt Pairs [1.6317061277457001]
基準画像品質評価(NR-IQA)は、対応する原画像なしで画像の知覚品質を推定するタスクである。
本稿では,事前学習した視覚モデルの能力を生かした新しいゼロショットかつ解釈可能なNRIQA法を提案する。
実験の結果,提案手法は既存のゼロショットNR-IQA法よりも精度が高いことがわかった。
論文 参考訳(メタデータ) (2023-08-24T21:37:00Z) - Helping Visually Impaired People Take Better Quality Pictures [52.03016269364854]
我々は、視覚障害者が共通の技術的歪みの発生を最小限に抑えるためのツールを開発する。
また、ユーザによる品質問題の緩和を支援する、プロトタイプのフィードバックシステムも作成しています。
論文 参考訳(メタデータ) (2023-05-14T04:37:53Z) - Test your samples jointly: Pseudo-reference for image quality evaluation [3.2634122554914]
品質評価の精度を向上させるため,同じ内容の異なる画像を共同でモデル化することを提案する。
実験の結果,本手法では,同一の新たなコンテンツを示す複数の画像の特徴を組み合わせることができ,評価精度が向上することがわかった。
論文 参考訳(メタデータ) (2023-04-07T17:59:27Z) - Image Quality Assessment using Contrastive Learning [50.265638572116984]
我々は、補助的な問題を解決するために、対照的な対の目的を用いて深層畳み込みニューラルネットワーク(CNN)を訓練する。
本研究では,最新のNR画像品質モデルと比較して,ContriQUEが競争性能を向上することを示す。
以上の結果から,大きなラベル付き主観的画像品質データセットを必要とせずに,知覚的関連性を持つ強力な品質表現が得られることが示唆された。
論文 参考訳(メタデータ) (2021-10-25T21:01:00Z) - A survey on IQA [0.0]
本稿では,画像品質評価と映像品質評価の概念と指標について概説する。
本報告では, 画像品質評価手法について概説し, 深層学習に基づく非参照画像品質評価手法に着目した。
論文 参考訳(メタデータ) (2021-08-29T10:52:27Z) - Learning Conditional Knowledge Distillation for Degraded-Reference Image
Quality Assessment [157.1292674649519]
劣化参照IQA(DR-IQA)という実用的な解を提案する。
DR-IQAはIRモデルの入力、劣化したイメージを参照として利用する。
私たちの結果は、フル参照設定のパフォーマンスに近いものもあります。
論文 参考訳(メタデータ) (2021-08-18T02:35:08Z) - Towards Unsupervised Deep Image Enhancement with Generative Adversarial
Network [92.01145655155374]
監視されていない画像強調生成ネットワーク(UEGAN)を提案する。
教師なしの方法で所望の特性を持つ画像の集合から、対応する画像と画像のマッピングを学習する。
その結果,提案モデルは画像の美的品質を効果的に向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:22:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。