論文の概要: Do It For Me vs. Do It With Me: Investigating User Perceptions of Different Paradigms of Automation in Copilots for Feature-Rich Software
- arxiv url: http://arxiv.org/abs/2504.15549v1
- Date: Tue, 22 Apr 2025 03:11:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-30 22:37:31.336094
- Title: Do It For Me vs. Do It With Me: Investigating User Perceptions of Different Paradigms of Automation in Copilots for Feature-Rich Software
- Title(参考訳): Do It for Me vs. Do It with Me: 機能リッチソフトウェアのためのコパイロットにおけるさまざまな自動化パラダイムのユーザ認識の調査
- Authors: Anjali Khurana, Xiaotian Su, April Yi Wang, Parmit K Chilana,
- Abstract要約: LLM(Large Language Model)ベースのアプリケーション内アシスタント(Cooperlot)は、ソフトウェアタスクの自動化を可能にする。
完全自動操縦と半自動操縦の2つの自動化パラダイムについて検討した。
GuidedCopilotは、ステップバイステップの視覚的ガイダンスを提供しながら、簡単なステップを自動化する。
- 参考スコア(独自算出の注目度): 9.881955481813465
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Model (LLM)-based in-application assistants, or copilots, can automate software tasks, but users often prefer learning by doing, raising questions about the optimal level of automation for an effective user experience. We investigated two automation paradigms by designing and implementing a fully automated copilot (AutoCopilot) and a semi-automated copilot (GuidedCopilot) that automates trivial steps while offering step-by-step visual guidance. In a user study (N=20) across data analysis and visual design tasks, GuidedCopilot outperformed AutoCopilot in user control, software utility, and learnability, especially for exploratory and creative tasks, while AutoCopilot saved time for simpler visual tasks. A follow-up design exploration (N=10) enhanced GuidedCopilot with task-and state-aware features, including in-context preview clips and adaptive instructions. Our findings highlight the critical role of user control and tailored guidance in designing the next generation of copilots that enhance productivity, support diverse skill levels, and foster deeper software engagement.
- Abstract(参考訳): LLM(Large Language Model)ベースのアプリケーション内アシスタント(Cooperlots)は、ソフトウェアタスクを自動化できるが、ユーザはしばしば、実行による学習を好み、効果的なユーザエクスペリエンスのための最適な自動化レベルに関する疑問を提起する。
完全自動操縦(AutoCopilot)と半自動操縦(GuidedCopilot)の2つの自動化パラダイムについて検討した。
データ分析とビジュアルデザインタスクに関するユーザスタディ(N=20)では、AutoCopilotはユーザコントロール、ソフトウェアユーティリティ、学習性において、特に探索的および創造的なタスクにおいて、AutoCopilotよりも優れており、AutoCopilotはより単純なビジュアルタスクのために時間を節約した。
フォローアップ設計探索 (N=10) では、インコンテキストプレビュークリップや適応命令を含むタスクおよび状態認識機能を備えた GuidedCopilot が強化された。
我々の研究は、生産性を高め、多様なスキルレベルをサポートし、より深いソフトウェアエンゲージメントを促進する次世代のコピロを設計する上で、ユーザコントロールと調整されたガイダンスの重要性を強調した。
関連論文リスト
- Automatic Programming: Large Language Models and Beyond [48.34544922560503]
我々は,プログラマの責任に関するコード品質,セキュリティ,関連する問題について検討する。
ソフトウェア工学の進歩が自動プログラミングを実現する方法について論じる。
我々は、近い将来のプログラミング環境に焦点をあてて、先見的な視点で締めくくります。
論文 参考訳(メタデータ) (2024-05-03T16:19:24Z) - AutoAct: Automatic Agent Learning from Scratch for QA via Self-Planning [54.47116888545878]
AutoActはQAのための自動エージェント学習フレームワークである。
大規模アノテートデータやクローズドソースモデルからの合成計画軌道は依存していない。
論文 参考訳(メタデータ) (2024-01-10T16:57:24Z) - VoCopilot: Voice-Activated Tracking of Everyday Interactions [1.0435741631709405]
本稿では,VoCopilotと呼ばれる新しい音声追跡システムを設計する取り組みについて述べる。
VoCopilotは、エネルギー効率の良い音響ハードウェアとファームウェアと高度な機械学習モデルを組み合わせたエンドツーエンドシステムである。
論文 参考訳(メタデータ) (2023-12-15T23:46:52Z) - Demystifying Practices, Challenges and Expected Features of Using GitHub
Copilot [3.655281304961642]
Stack Overflow(SO)とGitHubの議論からデータを収集し分析することで、実証的研究を行った。
私たちは、Copilotで使用されるプログラミング言語、技術、実装された関数、利点、制限、そしてCopilotを使用する際の課題を特定しました。
以上の結果から,Copilotの使用は二重刃の剣のようなもので,使用するかどうかを判断する際には,さまざまな側面を慎重に検討する必要があることが示唆された。
論文 参考訳(メタデータ) (2023-09-11T16:39:37Z) - Data-Copilot: Bridging Billions of Data and Humans with Autonomous Workflow [49.724842920942024]
金融、気象学、エネルギーといった産業は毎日大量のデータを生み出している。
本研究では,データ分析エージェントであるData-Copilotを提案する。
論文 参考訳(メタデータ) (2023-06-12T16:12:56Z) - SheetCopilot: Bringing Software Productivity to the Next Level through
Large Language Models [60.171444066848856]
本研究では,スプレッドシートの要求を満たすために自然言語処理と制御を行うスプレッドシートコパイロットエージェントを提案する。
221のスプレッドシート制御タスクを含む代表データセットをキュレートし,完全自動評価パイプラインを構築した。
当社の SheetCopilot は1世代で44.3% のタスクを正しく完了し、強力なコード生成ベースラインを広いマージンで上回っている。
論文 参考訳(メタデータ) (2023-05-30T17:59:30Z) - AutoML-GPT: Automatic Machine Learning with GPT [74.30699827690596]
本稿では,タスク指向のプロンプトを開発し,大規模言語モデル(LLM)を自動的に活用して学習パイプラインを自動化することを提案する。
本稿では,多様なAIモデルのブリッジとしてGPTを用いたAutoML-GPTを提案する。
このアプローチはコンピュータビジョン、自然言語処理、その他の課題領域において顕著な結果をもたらす。
論文 参考訳(メタデータ) (2023-05-04T02:09:43Z) - Visual Exemplar Driven Task-Prompting for Unified Perception in
Autonomous Driving [100.3848723827869]
本稿では,タスク固有のプロンプトを通じて視覚的見本を提示する,効果的なマルチタスクフレームワークVE-Promptを提案する。
具体的には、境界ボックスと色に基づくマーカーに基づいて視覚的な例を生成し、ターゲットカテゴリの正確な視覚的外観を提供する。
我々は変圧器をベースとしたエンコーダと畳み込み層を橋渡しし、自律運転における効率的かつ正確な統合認識を実現する。
論文 参考訳(メタデータ) (2023-03-03T08:54:06Z) - Reading Between the Lines: Modeling User Behavior and Costs in AI-Assisted Programming [28.254978977288868]
GitHub Copilotは、何百万人ものプログラマが毎日使っているコード推奨システムです。
Copilotと対話する際の共通プログラマ活動の分類であるCUPSを開発した。
私たちの洞察は、プログラマがCopilotとどのように相互作用し、新しいインターフェース設計とメトリクスを動機付けるかを明らかにします。
論文 参考訳(メタデータ) (2022-10-25T20:01:15Z) - Building Mental Models through Preview of Autopilot Behaviors [20.664610032249037]
私たちはAutoPreviewと呼ばれるフレームワークを導入し、人間が車と直接対話する前にオートパイロットの動作をプレビューできるようにします。
われわれはAutoPreviewフレームワークが自動操縦の振る舞いを理解し、適切なメンタルモデルを開発する手助けをしていることを示唆している。
論文 参考訳(メタデータ) (2021-04-12T13:46:55Z) - AutoPreview: A Framework for Autopilot Behavior Understanding [16.177399201198636]
消費者がターゲットのオートパイロットの潜在的なアクションをプレビューできるように、シンプルで効果的なフレームワークであるAutoPreviewを提案します。
対象のautopilotに対して、対象のautopilot動作を説明可能なアクション表現で再現するデリゲートポリシを設計します。
AutoPreviewが新しいオートパイロットポリシーを体験する際にオートパイロットの行動をより深く理解するかどうかを調べるパイロットスタディを実施します。
論文 参考訳(メタデータ) (2021-02-25T17:40:59Z) - Induction and Exploitation of Subgoal Automata for Reinforcement
Learning [75.55324974788475]
本稿では,Regressed Learning (RL)タスクにおけるサブゴールの学習と活用のためのISAを提案する。
ISAは、タスクのサブゴールによってエッジがラベル付けされたオートマトンであるサブゴールオートマトンを誘導することで強化学習をインターリーブする。
サブゴールオートマトンはまた、タスクの完了を示す状態と、タスクが成功せずに完了したことを示す状態の2つの特別な状態で構成されている。
論文 参考訳(メタデータ) (2020-09-08T16:42:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。