論文の概要: Conversational User Interfaces for Blind Knowledge Workers: A Case Study
- arxiv url: http://arxiv.org/abs/2006.07519v2
- Date: Tue, 13 Oct 2020 21:06:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-21 21:17:07.459448
- Title: Conversational User Interfaces for Blind Knowledge Workers: A Case Study
- Title(参考訳): ブラインド知識労働者のための会話型ユーザインタフェース : 事例研究
- Authors: Kyle Dent and Kalai Ramea
- Abstract要約: タッチ面の制御を用いたオフィス機器のインタフェース設計の最近のトレンドは、視覚障害者や視覚障害者にとってより大きな障害を生み出している。
本研究は,多機能プリンタのアクセシビリティのための対話型ユーザインタフェースを開発するための事例研究である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern trends in interface design for office equipment using controls on
touch surfaces create greater obstacles for blind and visually impaired users
and contribute to an environment of dependency in work settings. We believe
that \textit{conversational user interfaces} (CUIs) offer a reasonable
alternative to touchscreen interactions enabling more access and most
importantly greater independence for blind knowledge workers. We present a case
study of our work to develop a conversational user interface for accessibility
for multifunction printers. We also describe our approach to conversational
interfaces in general, which emphasizes task-based collaborative interactions
between people and intelligent agents, and we detail the specifics of the
solution we created for multifunction printers. To guide our design, we worked
with a group of blind and visually impaired individuals starting with focus
group sessions to ascertain the challenges our target users face in their
professional lives. We followed our technology development with a user study to
assess the solution and direct our future efforts. We present our findings and
conclusions from the study.
- Abstract(参考訳): タッチ操作によるオフィス機器のインタフェース設計の最近のトレンドは、視覚障害者にとってより大きな障害を生み出し、作業環境における依存環境に寄与する。
私たちは、\textit{conversational user interface} (cuis) はタッチスクリーン操作の合理的な代替手段であり、視覚障害者にとってよりアクセスしやすく、最も重要な独立性を高めると信じています。
本稿では,多機能プリンタ用アクセシビリティのための対話型ユーザインタフェースの開発に関する事例研究を行う。
また,人間と知的エージェント間のタスクベースの協調インタラクションを重視した対話型インタフェースに対する我々のアプローチを概説し,マルチファンクショナルプリンタのためのソリューションの具体例を詳述した。
デザインをガイドするために、私たちは盲目の視覚障害者のグループと協力して、フォーカスグループセッションから、ターゲットユーザーがプロフェッショナルな生活で直面する課題を確かめました。
我々は,その解決策を評価し,今後の取り組みを指示するためのユーザ調査を行い,技術開発に追従した。
本研究の結果と結論を報告する。
関連論文リスト
- Supporting Experts with a Multimodal Machine-Learning-Based Tool for
Human Behavior Analysis of Conversational Videos [40.30407535831779]
そこで我々は,プロビデンス(Providence)を開発した。プロビデンス(Providence)は,専門家による形式的な研究から得られた設計上の考察に基づくビジュアルプログラミングツールである。
これにより、専門家はさまざまな機械学習アルゴリズムを組み合わせることで、コードを書くことなく人間の行動の手がかりを捉えることができる。
本研究は,会話の場面検索タスクの達成に要する認知負荷が少なく,ユーザビリティと満足度の高いアウトプットを示した。
論文 参考訳(メタデータ) (2024-02-17T00:27:04Z) - Beyond ChatBots: ExploreLLM for Structured Thoughts and Personalized
Model Responses [35.74453152447319]
ExploreLLMは、ユーザが思考を構造化し、さまざまな選択肢を探索し、選択とレコメンデーションをナビゲートし、よりパーソナライズされたレスポンスを生成するために、より簡単にモデルをステアリングすることを可能にする。
本研究では,探索的・計画的なタスクにExploreLLMを使うことが有用であることを示す。
この研究は、ExploreLLMで高レベルな好みで応答をより簡単にパーソナライズできることを示唆している。
論文 参考訳(メタデータ) (2023-12-01T18:31:28Z) - Generating Human-Centric Visual Cues for Human-Object Interaction
Detection via Large Vision-Language Models [59.611697856666304]
人-物対検出(Human-object Interaction:HOI)は、人-物対を検出し、その相互作用を予測することを目的とする。
我々はVLMを用いた3つのプロンプトを提案し、人間の複数の視点から画像内で人間中心の視覚的手がかりを生成する。
我々は,マルチトワーアーキテクチャを用いたトランスフォーマーベースのマルチモーダル融合モジュールを開発し,視覚的キュー機能をインスタンスと対話デコーダに統合する。
論文 参考訳(メタデータ) (2023-11-26T09:11:32Z) - UPREVE: An End-to-End Causal Discovery Benchmarking System [24.303130018154388]
ユーザフレンドリーなWebベースグラフィカルユーザインタフェース(GUI)であるUpload,preprocess, Visualize, Evaluate(UPREVE)を提示する。
UPREVEは複数のアルゴリズムを同時に実行し、因果関係を視覚化し、学習した因果グラフの精度を評価する。
提案手法は,因果発見をよりアクセシブルでユーザフレンドリなものにすることを目的としており,ユーザがよりよい意思決定のために貴重な洞察を得られるようにすることを目的としている。
論文 参考訳(メタデータ) (2023-07-25T18:30:41Z) - Detecting and Optimising Team Interactions in Software Development [58.720142291102135]
本稿では,ソフトウェア開発チームの機能的相互作用構造を検出するためのデータ駆動型手法を提案する。
このアプローチでは、チームメンバのアクティビティレベルの違いを考慮し、ブロック制約設定モデルを使用します。
我々のアプローチは、チームが合成されたベンチマークシナリオと機能的な相互作用構造を比較するのにどのように役立つかを示します。
論文 参考訳(メタデータ) (2023-02-28T14:53:29Z) - GesSure -- A Robust Face-Authentication enabled Dynamic Gesture
Recognition GUI Application [1.3649494534428745]
本稿では,頑健で顔認証が可能なジェスチャー認識システムを設計することを目的とする。
タスク操作に意味があり、関連するジェスチャーを使用します。
私たちのプロトタイプは、保存、印刷、ビデオプレイヤの操作と終了の制御、スリープ、シャットダウン、直感的にアンロックといった文脈に依存しないオペレーティングシステムタスクをうまく実行しました。
論文 参考訳(メタデータ) (2022-07-22T12:14:35Z) - First Contact: Unsupervised Human-Machine Co-Adaptation via Mutual
Information Maximization [112.40598205054994]
我々はこのアイデアを、インターフェースを最適化するための完全に教師なしの目的として定式化する。
タイピング,シミュレートされたロボットの制御,ゲームプレイなど,様々なキーボードとアイアイのインタフェースを運用しているユーザの540K例について,観察的研究を行った。
以上の結果から,我々の相互情報スコアは,様々な領域における真真正タスク完了メトリクスの予測値であることが示唆された。
論文 参考訳(メタデータ) (2022-05-24T21:57:18Z) - Interacting with Non-Cooperative User: A New Paradigm for Proactive
Dialogue Policy [83.61404191470126]
インタラクティブな環境下でプロアクティブなポリシーを学習できるI-Proという新しいソリューションを提案する。
具体的には,4つの要因からなる学習目標重みを通じてトレードオフを学習する。
実験の結果,I-Proは,有効性と解釈性において,ベースラインを著しく上回っていることがわかった。
論文 参考訳(メタデータ) (2022-04-07T14:11:31Z) - X2T: Training an X-to-Text Typing Interface with Online Learning from
User Feedback [83.95599156217945]
ユーザがキーボードを操作できないが、他の入力を供給できる、補助型タイピングアプリケーションに焦点を当てる。
標準メソッドは、ユーザ入力の固定データセット上でモデルをトレーニングし、そのミスから学ばない静的インターフェースをデプロイする。
このようなインターフェースが時間の経過とともに改善されるようなシンプルなアイデアを,ユーザによる最小限の努力で検討する。
論文 参考訳(メタデータ) (2022-03-04T00:07:20Z) - Bringing Cognitive Augmentation to Web Browsing Accessibility [69.62988485669146]
我々は、より自然でアクセス可能なwebブラウジング体験を提供するための認知的拡張によってもたらされる機会を探求する。
我々は,BVIP対話型Webブラウジングニーズを支援するための概念的フレームワークを開発する。
構造的特徴とコンテンツ機能のみを考慮した初期の作業とプロトタイプについて説明する。
論文 参考訳(メタデータ) (2020-12-07T14:40:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。