論文の概要: Conversational User Interfaces for Blind Knowledge Workers: A Case Study
- arxiv url: http://arxiv.org/abs/2006.07519v2
- Date: Tue, 13 Oct 2020 21:06:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 21:17:07.459448
- Title: Conversational User Interfaces for Blind Knowledge Workers: A Case Study
- Title(参考訳): ブラインド知識労働者のための会話型ユーザインタフェース : 事例研究
- Authors: Kyle Dent and Kalai Ramea
- Abstract要約: タッチ面の制御を用いたオフィス機器のインタフェース設計の最近のトレンドは、視覚障害者や視覚障害者にとってより大きな障害を生み出している。
本研究は,多機能プリンタのアクセシビリティのための対話型ユーザインタフェースを開発するための事例研究である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern trends in interface design for office equipment using controls on
touch surfaces create greater obstacles for blind and visually impaired users
and contribute to an environment of dependency in work settings. We believe
that \textit{conversational user interfaces} (CUIs) offer a reasonable
alternative to touchscreen interactions enabling more access and most
importantly greater independence for blind knowledge workers. We present a case
study of our work to develop a conversational user interface for accessibility
for multifunction printers. We also describe our approach to conversational
interfaces in general, which emphasizes task-based collaborative interactions
between people and intelligent agents, and we detail the specifics of the
solution we created for multifunction printers. To guide our design, we worked
with a group of blind and visually impaired individuals starting with focus
group sessions to ascertain the challenges our target users face in their
professional lives. We followed our technology development with a user study to
assess the solution and direct our future efforts. We present our findings and
conclusions from the study.
- Abstract(参考訳): タッチ操作によるオフィス機器のインタフェース設計の最近のトレンドは、視覚障害者にとってより大きな障害を生み出し、作業環境における依存環境に寄与する。
私たちは、\textit{conversational user interface} (cuis) はタッチスクリーン操作の合理的な代替手段であり、視覚障害者にとってよりアクセスしやすく、最も重要な独立性を高めると信じています。
本稿では,多機能プリンタ用アクセシビリティのための対話型ユーザインタフェースの開発に関する事例研究を行う。
また,人間と知的エージェント間のタスクベースの協調インタラクションを重視した対話型インタフェースに対する我々のアプローチを概説し,マルチファンクショナルプリンタのためのソリューションの具体例を詳述した。
デザインをガイドするために、私たちは盲目の視覚障害者のグループと協力して、フォーカスグループセッションから、ターゲットユーザーがプロフェッショナルな生活で直面する課題を確かめました。
我々は,その解決策を評価し,今後の取り組みを指示するためのユーザ調査を行い,技術開発に追従した。
本研究の結果と結論を報告する。
関連論文リスト
- GUI Agents: A Survey [129.94551809688377]
グラフィカルユーザインタフェース(GUI)エージェントは、人間とコンピュータのインタラクションを自動化するためのトランスフォーメーションアプローチとして登場した。
GUIエージェントの関心の高まりと基本的な重要性により、ベンチマーク、評価指標、アーキテクチャ、トレーニングメソッドを分類する総合的な調査を提供する。
論文 参考訳(メタデータ) (2024-12-18T04:48:28Z) - Aguvis: Unified Pure Vision Agents for Autonomous GUI Interaction [69.57190742976091]
自律型GUIエージェントのための統合視覚ベースのフレームワークであるAguvisを紹介する。
提案手法は,画像に基づく観察と,自然言語の接地命令を視覚要素に活用する。
これまでの作業の限界に対処するため、モデル内に明確な計画と推論を統合する。
論文 参考訳(メタデータ) (2024-12-05T18:58:26Z) - Generative AI in Multimodal User Interfaces: Trends, Challenges, and Cross-Platform Adaptability [0.0]
ジェネレーティブAIは、ユーザーインターフェイスを再構築する上で重要なドライバとして登場します。
本稿では,現代ユーザインタフェースにおける生成AIの統合について考察する。
マルチモーダルインタラクション、クロスプラットフォーム適応性、動的パーソナライゼーションに焦点を当てている。
論文 参考訳(メタデータ) (2024-11-15T14:49:58Z) - Navigating the Unknown: A Chat-Based Collaborative Interface for Personalized Exploratory Tasks [35.09558253658275]
本稿ではCARE(Collaborative Assistant for Personalized Exploration)を紹介する。
CARE は多エージェント LLM フレームワークと構造化ユーザインタフェースを組み合わせることにより,探索作業におけるパーソナライズを向上するシステムである。
この結果から, パーソナライズされた問題解決・探索において, CARE が LLM ベースのシステムを受動的情報検索システムから積極的パートナーに転換する可能性が示唆された。
論文 参考訳(メタデータ) (2024-10-31T15:30:55Z) - Survey of User Interface Design and Interaction Techniques in Generative AI Applications [79.55963742878684]
我々は,デザイナやディベロッパの参照として使用できる,さまざまなユーザインタラクションパターンのコンペレーションを作ることを目指している。
また、生成AIアプリケーションの設計についてもっと学ぼうとする人たちの参入障壁を低くしようと努力しています。
論文 参考訳(メタデータ) (2024-10-28T23:10:06Z) - Constraining Participation: Affordances of Feedback Features in Interfaces to Large Language Models [49.74265453289855]
大規模言語モデル(LLM)は、コンピュータ、Webブラウザ、ブラウザベースのインターフェースによるインターネット接続を持つ人なら誰でも利用できるようになった。
本稿では,ChatGPTインタフェースにおける対話型フィードバック機能の可能性について検討し,ユーザ入力の形状やイテレーションへの参加について分析する。
論文 参考訳(メタデータ) (2024-08-27T13:50:37Z) - Driving Towards Inclusion: A Systematic Review of AI-powered Accessibility Enhancements for People with Disability in Autonomous Vehicles [4.080497848091375]
本稿では,自律走行車(AV)と自律走行車(自律走行車)における包括的ヒューマンコンピュータインタラクション(HCI)について検討する。
議論されている主な技術は、脳-コンピュータインターフェース、人為的相互作用、仮想現実、拡張現実、モード適応、音声アクティベートインターフェース、触覚フィードバックなどである。
これらの知見に基づいて,多様なユーザ層にまたがるアクセシビリティ要件に対処するエンドツーエンドの設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-26T00:06:08Z) - Enhancing HOI Detection with Contextual Cues from Large Vision-Language Models [56.257840490146]
ConCueは、HOI検出における視覚的特徴抽出を改善するための新しいアプローチである。
コンテクストキューをインスタンスと相互作用検出器の両方に統合するマルチトウワーアーキテクチャを用いたトランスフォーマーベースの特徴抽出モジュールを開発した。
論文 参考訳(メタデータ) (2023-11-26T09:11:32Z) - First Contact: Unsupervised Human-Machine Co-Adaptation via Mutual
Information Maximization [112.40598205054994]
我々はこのアイデアを、インターフェースを最適化するための完全に教師なしの目的として定式化する。
タイピング,シミュレートされたロボットの制御,ゲームプレイなど,様々なキーボードとアイアイのインタフェースを運用しているユーザの540K例について,観察的研究を行った。
以上の結果から,我々の相互情報スコアは,様々な領域における真真正タスク完了メトリクスの予測値であることが示唆された。
論文 参考訳(メタデータ) (2022-05-24T21:57:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。