論文の概要: Interactive introduction to self-calibrating interfaces
- arxiv url: http://arxiv.org/abs/2212.05766v1
- Date: Mon, 12 Dec 2022 08:39:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-13 15:43:17.973617
- Title: Interactive introduction to self-calibrating interfaces
- Title(参考訳): 自己校正インタフェースの対話的紹介
- Authors: Jonathan Grizou
- Abstract要約: 本稿では,自己校正インタフェースのパラダイムを直感的に理解することを目的とする。
このパラダイムでは、オンザフライで好みに適応できるインターフェースの使い方を選べる。
我々は、PIN入力タスクを導入し、制約を徐々にリリースし、事前校正されたインターフェイスから自己校正インターフェイスに移行する。
- 参考スコア(独自算出の注目度): 4.111899441919164
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This interactive paper aims to provide an intuitive understanding of the
self-calibrating interface paradigm. Under this paradigm, you can choose how to
use an interface which can adapt to your preferences on the fly. We introduce a
PIN entering task and gradually release constraints, moving from a
pre-calibrated interface to a self-calibrating interface while increasing the
complexity of input modalities from buttons, to points on a map, to sketches,
and finally to spoken words. This is not a traditional research paper with a
hypothesis and experimental results to support claims; the research supporting
this work has already been done and we refer to it extensively in the later
sections. Instead, our aim is to walk you through an intriguing interaction
paradigm in small logical steps with supporting illustrations, interactive
demonstrations, and videos to reinforce your learning. We designed this paper
for the enjoyments of curious minds of any backgrounds, it is written in plain
English and no prior knowledge is necessary. All demos are available online at
openvault.jgrizou.com and linked individually in the paper.
- Abstract(参考訳): 本論文は,自己管理インタフェースパラダイムを直感的に理解することを目的とする。
このパラダイムでは、オンザフライで好みに合わせてインターフェイスを使用する方法を選択することができる。
そこで我々は,PIN入力タスクを導入し,事前校正されたインタフェースから自己校正インターフェースへ移行し,ボタンからの入力モダリティの複雑さを増大させ,地図上のポイント,スケッチ,最後に音声語への変換を行う。
本研究は, 従来の研究論文ではなく, 主張を裏付ける仮説と実験結果であり, この研究を裏付ける研究はすでにすでに行われており, 後段で広く言及されている。
代わりに私たちの目標は、イラストやインタラクティブなデモ、ビデオなどをサポートする小さな論理的なステップで、興味をそそる対話パラダイムを身につけ、学習を強化することです。
この論文は、あらゆる背景の好奇心の楽しみのために設計され、平易な英語で書かれており、事前の知識は必要ない。
すべてのデモはopenvault.jgrizou.comでオンラインで公開されている。
関連論文リスト
- Towards dialogue based, computer aided software requirements elicitation [0.0]
本稿では,対話に基づくコンピュータ支援ソフトウェア要求分析を目的としたインタラクション・ブループリントを提案する。
単なるモデル抽出アプローチと比較して、この相互作用の青写真は個性、創造性、真の妥協を促進する。
論文 参考訳(メタデータ) (2023-10-21T09:12:24Z) - Leveraging Explanations in Interactive Machine Learning: An Overview [10.284830265068793]
説明はAIと機械学習(ML)コミュニティへの関心が高まっている。
本稿では,対話的能力と説明が組み合わさった研究の概要について述べる。
論文 参考訳(メタデータ) (2022-07-29T07:46:11Z) - Rules Of Engagement: Levelling Up To Combat Unethical CUI Design [23.01296770233131]
いわゆる暗黒パターンの先行研究から得られた5次元のインタフェースを簡易に評価する手法を提案する。
提案手法はユーザに対して,評価されたインタフェースの操作性を表す数値スコアを提供する。
論文 参考訳(メタデータ) (2022-07-19T14:02:24Z) - First Contact: Unsupervised Human-Machine Co-Adaptation via Mutual
Information Maximization [112.40598205054994]
我々はこのアイデアを、インターフェースを最適化するための完全に教師なしの目的として定式化する。
タイピング,シミュレートされたロボットの制御,ゲームプレイなど,様々なキーボードとアイアイのインタフェースを運用しているユーザの540K例について,観察的研究を行った。
以上の結果から,我々の相互情報スコアは,様々な領域における真真正タスク完了メトリクスの予測値であることが示唆された。
論文 参考訳(メタデータ) (2022-05-24T21:57:18Z) - X2T: Training an X-to-Text Typing Interface with Online Learning from
User Feedback [83.95599156217945]
ユーザがキーボードを操作できないが、他の入力を供給できる、補助型タイピングアプリケーションに焦点を当てる。
標準メソッドは、ユーザ入力の固定データセット上でモデルをトレーニングし、そのミスから学ばない静的インターフェースをデプロイする。
このようなインターフェースが時間の経過とともに改善されるようなシンプルなアイデアを,ユーザによる最小限の努力で検討する。
論文 参考訳(メタデータ) (2022-03-04T00:07:20Z) - VIRT: Improving Representation-based Models for Text Matching through
Virtual Interaction [50.986371459817256]
本稿では,VIRT と呼ばれる新しいtextitVirtual InteRacTion 機構を提案する。
VIRTは、表現ベースのエンコーダに、対話ベースのモデルのように振舞いを模倣する仮想インタラクションを実行するよう要求する。
論文 参考訳(メタデータ) (2021-12-08T09:49:28Z) - Towards Transparent Interactive Semantic Parsing via Step-by-Step
Correction [17.000283696243564]
自然言語における予測論理形式を段階的に説明する対話型意味解析フレームワークについて検討する。
フレームワークのインスタンス化として,知識ベース(KBQA)に対する質問応答に注目した。
実験の結果,人間のフィードバックによる対話型フレームワークは,全体の解析精度を大幅に向上させる可能性が示唆された。
論文 参考訳(メタデータ) (2021-10-15T20:11:22Z) - iFacetSum: Coreference-based Interactive Faceted Summarization for
Multi-Document Exploration [63.272359227081836]
iFacetSumは、インタラクティブな要約と顔検索を統合している。
微粒なファセットは、クロスドキュメントのコア参照パイプラインに基づいて自動的に生成される。
論文 参考訳(メタデータ) (2021-09-23T20:01:11Z) - Dynamic Modeling of Hand-Object Interactions via Tactile Sensing [133.52375730875696]
本研究では,高分解能な触覚グローブを用いて,多種多様な物体に対して4種類のインタラクティブな動作を行う。
我々は,クロスモーダル学習フレームワーク上にモデルを構築し,視覚処理パイプラインを用いてラベルを生成し,触覚モデルを監督する。
この研究は、高密度触覚センシングによる手動物体相互作用における動的モデリングの一歩を踏み出す。
論文 参考訳(メタデータ) (2021-09-09T16:04:14Z) - FIVES: Feature Interaction Via Edge Search for Large-Scale Tabular Data [106.76845921324704]
本稿では,FIVES (Feature Interaction Via Edge Search) という新しい手法を提案する。
FIVESは、定義された特徴グラフ上のエッジを探すために、インタラクティブな特徴生成のタスクを定式化する。
本稿では,対話的特徴の探索を動機づける理論的証拠を提示する。
論文 参考訳(メタデータ) (2020-07-29T03:33:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。