論文の概要: MotorEase: Automated Detection of Motor Impairment Accessibility Issues in Mobile App UIs
- arxiv url: http://arxiv.org/abs/2403.13690v1
- Date: Wed, 20 Mar 2024 15:53:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-21 16:18:41.936410
- Title: MotorEase: Automated Detection of Motor Impairment Accessibility Issues in Mobile App UIs
- Title(参考訳): MotorEase: モバイルアプリUIにおけるモータ障害アクセシビリティ問題の自動検出
- Authors: Arun Krishnavajjala, SM Hasan Mansur, Justin Jose, Kevin Moran,
- Abstract要約: MotorEaseは、モバイルアプリのUIにおけるアクセシビリティの問題を特定し、運動不足のユーザに影響を与える。
コンピュータビジョンとテキスト処理技術を適用して、アプリUI画面のセマンティック理解を可能にする。
違反を90%の精度で識別でき、偽陽性率は9%未満である。
- 参考スコア(独自算出の注目度): 8.057618278428494
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent research has begun to examine the potential of automatically finding and fixing accessibility issues that manifest in software. However, while recent work makes important progress, it has generally been skewed toward identifying issues that affect users with certain disabilities, such as those with visual or hearing impairments. However, there are other groups of users with different types of disabilities that also need software tooling support to improve their experience. As such, this paper aims to automatically identify accessibility issues that affect users with motor-impairments. To move toward this goal, this paper introduces a novel approach, called MotorEase, capable of identifying accessibility issues in mobile app UIs that impact motor-impaired users. Motor-impaired users often have limited ability to interact with touch-based devices, and instead may make use of a switch or other assistive mechanism -- hence UIs must be designed to support both limited touch gestures and the use of assistive devices. MotorEase adapts computer vision and text processing techniques to enable a semantic understanding of app UI screens, enabling the detection of violations related to four popular, previously unexplored UI design guidelines that support motor-impaired users, including: (i) visual touch target size, (ii) expanding sections, (iii) persisting elements, and (iv) adjacent icon visual distance. We evaluate MotorEase on a newly derived benchmark, called MotorCheck, that contains 555 manually annotated examples of violations to the above accessibility guidelines, across 1599 screens collected from 70 applications via a mobile app testing tool. Our experiments illustrate that MotorEase is able to identify violations with an average accuracy of ~90%, and a false positive rate of less than 9%, outperforming baseline techniques.
- Abstract(参考訳): 最近の研究は、ソフトウェアに現れるアクセシビリティ問題を自動的に発見し、修正する可能性を調べ始めている。
しかし、近年の研究は重要な進歩を遂げているが、視覚障害や聴覚障害など、特定の障害を持つユーザに影響を与える問題を特定するために、一般的には歪まれている。
しかしながら、さまざまな種類の障害を持つユーザグループには、自身のエクスペリエンスを改善するために、ソフトウェアツーリングのサポートも必要です。
そこで本稿は,運動障害者に影響を及ぼすアクセシビリティ問題を自動的に識別することを目的とする。
そこで本研究では,モバイルアプリのUIにおけるアクセシビリティ問題を特定するための,MotorEaseと呼ばれる新しいアプローチを提案する。
モーター不自由なユーザは、しばしばタッチベースのデバイスと対話する能力に制限があり、代わりにスイッチやその他のアシスト機構を使用することがある。
MotorEaseはコンピュータビジョンとテキスト処理技術を適用して、アプリUI画面のセマンティックな理解を可能にする。
(i)視覚的タッチターゲットサイズ
(二)拡大区間
(三)元素の持続、及び
(4)隣接するアイコン視距離。
モバイルアプリケーションテストツールを介して70のアプリケーションから収集された1599のスクリーンに対して、上記のアクセシビリティガイドラインに違反する555の注釈付き例を含む、MotorCheckと呼ばれる新しいベンチマークでMotorEaseを評価した。
実験の結果,MotorEaseは平均精度が90%,偽陽性率が9%未満の違反を識別できることがわかった。
関連論文リスト
- Improve accessibility for Low Vision and Blind people using Machine Learning and Computer Vision [0.0]
このプロジェクトでは、視覚障害者のアクセシビリティ向上に機械学習とコンピュータビジョンを活用する方法について検討する。
このプロジェクトでは、視覚障害者が音声や触覚のフィードバックを受信することで、空間内でのオリエントを支援するモバイルアプリケーションの構築に集中する。
論文 参考訳(メタデータ) (2024-03-24T21:19:17Z) - Towards Automated Accessibility Report Generation for Mobile Apps [14.908672785900832]
アプリケーションアクセシビリティーレポート全体を生成するシステムを提案する。
様々なデータ収集方法(アプリクローリング、手動記録など)と既存のアクセシビリティスキャナを組み合わせる。
論文 参考訳(メタデータ) (2023-09-29T19:05:11Z) - Agile gesture recognition for capacitive sensing devices: adapting
on-the-job [55.40855017016652]
本システムでは, コンデンサセンサからの信号を手の動き認識器に組み込んだ手動作認識システムを提案する。
コントローラは、着用者5本の指それぞれからリアルタイム信号を生成する。
機械学習技術を用いて時系列信号を解析し,500ms以内で5本の指を表現できる3つの特徴を同定する。
論文 参考訳(メタデータ) (2023-05-12T17:24:02Z) - On the Forces of Driver Distraction: Explainable Predictions for the
Visual Demand of In-Vehicle Touchscreen Interactions [5.375634674639956]
車載タッチスクリーンHuman-Machine Interfaces(HMI)は、可能な限り気を散らさなければならない。
本稿では,車内タッチスクリーン相互作用の視覚的要求を予測する機械学習手法を提案する。
論文 参考訳(メタデータ) (2023-01-05T13:50:26Z) - In-Vehicle Interface Adaptation to Environment-Induced Cognitive
Workload [55.41644538483948]
車両内ヒューマンマシンインタフェース(HMI)は長年にわたって進化し、ますます多くの機能を提供している。
この問題に対処するために,ドライバの精神的負荷に応じて変化する適応的HMIを提案する。
論文 参考訳(メタデータ) (2022-10-20T13:42:25Z) - Learning energy-efficient driving behaviors by imitating experts [75.12960180185105]
本稿では,コミュニケーション・センシングにおける制御戦略と現実的限界のギャップを埋める上で,模倣学習が果たす役割について考察する。
擬似学習は、車両の5%に採用されれば、局地的な観測のみを用いて、交通条件の異なるネットワークのエネルギー効率を15%向上させる政策を導出できることを示す。
論文 参考訳(メタデータ) (2022-06-28T17:08:31Z) - First Contact: Unsupervised Human-Machine Co-Adaptation via Mutual
Information Maximization [112.40598205054994]
我々はこのアイデアを、インターフェースを最適化するための完全に教師なしの目的として定式化する。
タイピング,シミュレートされたロボットの制御,ゲームプレイなど,様々なキーボードとアイアイのインタフェースを運用しているユーザの540K例について,観察的研究を行った。
以上の結果から,我々の相互情報スコアは,様々な領域における真真正タスク完了メトリクスの予測値であることが示唆された。
論文 参考訳(メタデータ) (2022-05-24T21:57:18Z) - Identification of Driver Phone Usage Violations via State-of-the-Art
Object Detection with Tracking [8.147652597876862]
道路沿いのカメラで人間の介入を必要とせずに運転者用電話機の使用状況を把握できる、カスタムトレーニングされた最先端物体検出器を提案する。
提案手法はウインドスクリーンのグラアに起因する問題にも対処し、これを改善するために必要なステップを紹介している。
論文 参考訳(メタデータ) (2021-09-05T16:37:03Z) - Exploiting Playbacks in Unsupervised Domain Adaptation for 3D Object
Detection [55.12894776039135]
ディープラーニングに基づく最先端の3Dオブジェクト検出器は、有望な精度を示しているが、ドメインの慣用性に過度に適合する傾向がある。
対象領域の擬似ラベルの検出器を微調整することで,このギャップを大幅に削減する新たな学習手法を提案する。
5つの自律運転データセットにおいて、これらの擬似ラベル上の検出器を微調整することで、新しい運転環境への領域ギャップを大幅に減らすことを示す。
論文 参考訳(メタデータ) (2021-03-26T01:18:11Z) - Gaze-contingent decoding of human navigation intention on an autonomous
wheelchair platform [6.646253877148766]
We have developed the Where-You-Look-Is Where-You-Go approach to control mobile platform。
我々は,1. 深いコンピュータビジョンを用いて,ユーザが視点で何を見ているのかを理解する新しいソリューションを提案する。
私たちのデコードシステムは最終的に、ユーザーがドアなどへ運転したいかどうかを判断するか、単にそれを見るかを決定します。
論文 参考訳(メタデータ) (2021-03-04T14:52:06Z) - Assisted Perception: Optimizing Observations to Communicate State [112.40598205054994]
我々は、ロボット遠隔操作や視覚障害のあるナビゲーションといったタスクにおいて、ユーザが世界の状態を見積もるのを支援することを目的としている。
ユーザによって処理された場合、より正確な内部状態推定につながる新しい観測結果を合成する。
論文 参考訳(メタデータ) (2020-08-06T19:08:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。