論文の概要: Evaluation of Automated Image Descriptions for Visually Impaired
Students
- arxiv url: http://arxiv.org/abs/2106.15553v1
- Date: Tue, 29 Jun 2021 16:40:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-30 15:16:46.520319
- Title: Evaluation of Automated Image Descriptions for Visually Impaired
Students
- Title(参考訳): 視覚障害者のための画像自動記述の評価
- Authors: Anett Hoppe and David Morris and Ralph Ewerth
- Abstract要約: 自動画像記述の評価に関する研究について報告する。
評価基準を確立するために専門家にインタビューを行い、その後、目撃された非専門家に対する評価票の作成に利用した。
本研究は,これらのテンプレートが有用な記述を生成する可能性を秘めていることを示す。
- 参考スコア(独自算出の注目度): 4.770259348808343
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Illustrations are widely used in education, and sometimes, alternatives are
not available for visually impaired students. Therefore, those students would
benefit greatly from an automatic illustration description system, but only if
those descriptions were complete, correct, and easily understandable using a
screenreader. In this paper, we report on a study for the assessment of
automated image descriptions. We interviewed experts to establish evaluation
criteria, which we then used to create an evaluation questionnaire for sighted
non-expert raters, and description templates. We used this questionnaire to
evaluate the quality of descriptions which could be generated with a
template-based automatic image describer. We present evidence that these
templates have the potential to generate useful descriptions, and that the
questionnaire identifies problems with description templates.
- Abstract(参考訳): イラストは教育で広く使われており、視覚障害者の生徒には代替手段が利用できないこともある。
したがって、これらの学生は自動図面記述システムから大きな恩恵を受けるだろうが、その記述が完全で正確で、スクリーンリーダーで容易に理解できる場合に限られる。
本稿では,自動画像記述の評価に関する研究について報告する。
評価基準を定式化するために専門家にインタビューし,視認された非熟練者に対する評価アンケートと説明テンプレートの作成に用いた。
テンプレートベースの自動画像記述装置で生成できる記述の質を評価するために,本アンケートを用いた。
本報告では,これらのテンプレートが有用な記述を生成できる可能性が示唆され,質問紙は説明テンプレートを用いて問題を特定する。
関連論文リスト
- Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - Digital Socrates: Evaluating LLMs through Explanation Critiques [37.25959112212333]
Digital Socratesは、モデル説明のためのオープンソースの自動批評モデルである。
我々は,デジタルソクラテスが学生モデルについての洞察を明らかにするのにどのように役立つかを示す。
論文 参考訳(メタデータ) (2023-11-16T06:51:46Z) - Image Captioners Sometimes Tell More Than Images They See [8.640488282016351]
画像キャプション、つまり、"image-to-text"は、与えられた画像から記述テキストを生成する。
我々は、記述テキストのみからの画像の分類を含む実験を行った。
災害画像分類タスクであるCrisisNLPについて,いくつかの画像キャプションモデルの評価を行った。
論文 参考訳(メタデータ) (2023-05-04T15:32:41Z) - Can Pre-trained Vision and Language Models Answer Visual
Information-Seeking Questions? [50.29862466940209]
情報検索に適した視覚的質問応答データセットであるInfoSeekを紹介する。
事前学習した様々な視覚的質問応答モデルを分析し,その特徴について考察する。
関連文書を検索することでInfoSeekの性能を向上させるために,正確な視覚的実体認識が利用できることを示す。
論文 参考訳(メタデータ) (2023-02-23T00:33:54Z) - Improving Few-Shot Image Classification Using Machine- and
User-Generated Natural Language Descriptions [10.187432367590201]
人間は言語記述から新しい視覚概念の知識を得ることができる。
提案するモデルであるLIDEは、記述を生成するテキストデコーダと、マシンまたはユーザ生成記述のテキスト表現を取得するテキストエンコーダを備えている。
論文 参考訳(メタデータ) (2022-07-07T07:48:06Z) - Automating Visualization Quality Assessment: a Case Study in Higher
Education [0.0]
本稿では、可視化品質評価にマシン+人間混合インテリジェンスを応用したケーススタディを提案する。
画像情報アルゴリズムのセットは、学生の可視化のマシン分析を生成する。
画像インフォマティクスのアウトプットからの洞察は,作業評価の指標として有用であることが証明され,その成果の報告の一部として学生に提供された。
論文 参考訳(メタデータ) (2021-05-31T19:52:08Z) - This is not the Texture you are looking for! Introducing Novel
Counterfactual Explanations for Non-Experts using Generative Adversarial
Learning [59.17685450892182]
反実用説明システムは、入力画像を変更して反実用推論を可能にする。
本稿では, 対向画像から画像への変換技術に基づく, 対向画像の説明を新たに生成する手法を提案する。
その結果,我々のアプローチは,2つの最先端技術システムよりも,メンタルモデル,説明満足度,信頼度,感情,自己効力に関して有意に優れた結果をもたらすことがわかった。
論文 参考訳(メタデータ) (2020-12-22T10:08:05Z) - Evaluating Explanations: How much do explanations from the teacher aid
students? [103.05037537415811]
本研究では,説明が生徒の学習モデルを改善する程度を測る学生-教師パラダイムを用いて,説明の価値を定式化する。
説明を評価するための従来の提案とは異なり、我々のアプローチは容易にゲーム化できず、原則付き、スケーラブルで、属性の自動評価を可能にします。
論文 参考訳(メタデータ) (2020-12-01T23:40:21Z) - CapWAP: Captioning with a Purpose [56.99405135645775]
我々は、CapWAP(Captioning with a Purpose)という新しいタスクを提案する。
私たちのゴールは、意図した人口の情報ニーズに合うように調整可能なシステムを開発することです。
目的とする情報に直接最適化するために強化学習を利用することが可能であることを示す。
論文 参考訳(メタデータ) (2020-11-09T09:23:55Z) - Quantifying Learnability and Describability of Visual Concepts Emerging
in Representation Learning [91.58529629419135]
我々は、ディープニューラルネットワークによって自動的に発見された視覚的なグルーピングを特徴付ける方法を検討する。
本稿では、任意の画像グループ化の解釈可能性の定量化に使用できる視覚的学習可能性と記述可能性という2つの概念を紹介する。
論文 参考訳(メタデータ) (2020-10-27T18:41:49Z) - On the use of human reference data for evaluating automatic image
descriptions [2.8281511593636792]
私は、視覚障害者のニーズを考慮に入れたより詳細なガイドラインが必要であると論じています。
画像記述システムの評価は参照記述を用いることができるが、代替案も探すべきである。
論文 参考訳(メタデータ) (2020-06-15T21:57:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。