論文の概要: Conversational User Interfaces for Blind Knowledge Workers: A Case Study
- arxiv url: http://arxiv.org/abs/2006.07519v2
- Date: Tue, 13 Oct 2020 21:06:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 21:17:07.459448
- Title: Conversational User Interfaces for Blind Knowledge Workers: A Case Study
- Title(参考訳): ブラインド知識労働者のための会話型ユーザインタフェース : 事例研究
- Authors: Kyle Dent and Kalai Ramea
- Abstract要約: タッチ面の制御を用いたオフィス機器のインタフェース設計の最近のトレンドは、視覚障害者や視覚障害者にとってより大きな障害を生み出している。
本研究は,多機能プリンタのアクセシビリティのための対話型ユーザインタフェースを開発するための事例研究である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern trends in interface design for office equipment using controls on
touch surfaces create greater obstacles for blind and visually impaired users
and contribute to an environment of dependency in work settings. We believe
that \textit{conversational user interfaces} (CUIs) offer a reasonable
alternative to touchscreen interactions enabling more access and most
importantly greater independence for blind knowledge workers. We present a case
study of our work to develop a conversational user interface for accessibility
for multifunction printers. We also describe our approach to conversational
interfaces in general, which emphasizes task-based collaborative interactions
between people and intelligent agents, and we detail the specifics of the
solution we created for multifunction printers. To guide our design, we worked
with a group of blind and visually impaired individuals starting with focus
group sessions to ascertain the challenges our target users face in their
professional lives. We followed our technology development with a user study to
assess the solution and direct our future efforts. We present our findings and
conclusions from the study.
- Abstract(参考訳): タッチ操作によるオフィス機器のインタフェース設計の最近のトレンドは、視覚障害者にとってより大きな障害を生み出し、作業環境における依存環境に寄与する。
私たちは、\textit{conversational user interface} (cuis) はタッチスクリーン操作の合理的な代替手段であり、視覚障害者にとってよりアクセスしやすく、最も重要な独立性を高めると信じています。
本稿では,多機能プリンタ用アクセシビリティのための対話型ユーザインタフェースの開発に関する事例研究を行う。
また,人間と知的エージェント間のタスクベースの協調インタラクションを重視した対話型インタフェースに対する我々のアプローチを概説し,マルチファンクショナルプリンタのためのソリューションの具体例を詳述した。
デザインをガイドするために、私たちは盲目の視覚障害者のグループと協力して、フォーカスグループセッションから、ターゲットユーザーがプロフェッショナルな生活で直面する課題を確かめました。
我々は,その解決策を評価し,今後の取り組みを指示するためのユーザ調査を行い,技術開発に追従した。
本研究の結果と結論を報告する。
関連論文リスト
- Generative AI in Multimodal User Interfaces: Trends, Challenges, and Cross-Platform Adaptability [0.0]
ジェネレーティブAIは、ユーザーインターフェイスを再構築する上で重要なドライバとして登場します。
本稿では,現代ユーザインタフェースにおける生成AIの統合について考察する。
マルチモーダルインタラクション、クロスプラットフォーム適応性、動的パーソナライゼーションに焦点を当てている。
論文 参考訳(メタデータ) (2024-11-15T14:49:58Z) - Navigating the Unknown: A Chat-Based Collaborative Interface for Personalized Exploratory Tasks [35.09558253658275]
本稿ではCARE(Collaborative Assistant for Personalized Exploration)を紹介する。
CARE は多エージェント LLM フレームワークと構造化ユーザインタフェースを組み合わせることにより,探索作業におけるパーソナライズを向上するシステムである。
この結果から, パーソナライズされた問題解決・探索において, CARE が LLM ベースのシステムを受動的情報検索システムから積極的パートナーに転換する可能性が示唆された。
論文 参考訳(メタデータ) (2024-10-31T15:30:55Z) - Survey of User Interface Design and Interaction Techniques in Generative AI Applications [79.55963742878684]
我々は,デザイナやディベロッパの参照として使用できる,さまざまなユーザインタラクションパターンのコンペレーションを作ることを目指している。
また、生成AIアプリケーションの設計についてもっと学ぼうとする人たちの参入障壁を低くしようと努力しています。
論文 参考訳(メタデータ) (2024-10-28T23:10:06Z) - Constraining Participation: Affordances of Feedback Features in Interfaces to Large Language Models [49.74265453289855]
大規模言語モデル(LLM)は、コンピュータ、Webブラウザ、ブラウザベースのインターフェースによるインターネット接続を持つ人なら誰でも利用できるようになった。
本稿では,ChatGPTインタフェースにおける対話型フィードバック機能の可能性について検討し,ユーザ入力の形状やイテレーションへの参加について分析する。
論文 参考訳(メタデータ) (2024-08-27T13:50:37Z) - Supporting Experts with a Multimodal Machine-Learning-Based Tool for
Human Behavior Analysis of Conversational Videos [40.30407535831779]
そこで我々は,プロビデンス(Providence)を開発した。プロビデンス(Providence)は,専門家による形式的な研究から得られた設計上の考察に基づくビジュアルプログラミングツールである。
これにより、専門家はさまざまな機械学習アルゴリズムを組み合わせることで、コードを書くことなく人間の行動の手がかりを捉えることができる。
本研究は,会話の場面検索タスクの達成に要する認知負荷が少なく,ユーザビリティと満足度の高いアウトプットを示した。
論文 参考訳(メタデータ) (2024-02-17T00:27:04Z) - Enhancing HOI Detection with Contextual Cues from Large Vision-Language Models [56.257840490146]
ConCueは、HOI検出における視覚的特徴抽出を改善するための新しいアプローチである。
コンテクストキューをインスタンスと相互作用検出器の両方に統合するマルチトウワーアーキテクチャを用いたトランスフォーマーベースの特徴抽出モジュールを開発した。
論文 参考訳(メタデータ) (2023-11-26T09:11:32Z) - First Contact: Unsupervised Human-Machine Co-Adaptation via Mutual
Information Maximization [112.40598205054994]
我々はこのアイデアを、インターフェースを最適化するための完全に教師なしの目的として定式化する。
タイピング,シミュレートされたロボットの制御,ゲームプレイなど,様々なキーボードとアイアイのインタフェースを運用しているユーザの540K例について,観察的研究を行った。
以上の結果から,我々の相互情報スコアは,様々な領域における真真正タスク完了メトリクスの予測値であることが示唆された。
論文 参考訳(メタデータ) (2022-05-24T21:57:18Z) - X2T: Training an X-to-Text Typing Interface with Online Learning from
User Feedback [83.95599156217945]
ユーザがキーボードを操作できないが、他の入力を供給できる、補助型タイピングアプリケーションに焦点を当てる。
標準メソッドは、ユーザ入力の固定データセット上でモデルをトレーニングし、そのミスから学ばない静的インターフェースをデプロイする。
このようなインターフェースが時間の経過とともに改善されるようなシンプルなアイデアを,ユーザによる最小限の努力で検討する。
論文 参考訳(メタデータ) (2022-03-04T00:07:20Z) - Bringing Cognitive Augmentation to Web Browsing Accessibility [69.62988485669146]
我々は、より自然でアクセス可能なwebブラウジング体験を提供するための認知的拡張によってもたらされる機会を探求する。
我々は,BVIP対話型Webブラウジングニーズを支援するための概念的フレームワークを開発する。
構造的特徴とコンテンツ機能のみを考慮した初期の作業とプロトタイプについて説明する。
論文 参考訳(メタデータ) (2020-12-07T14:40:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。