論文の概要: CatAlyst: Domain-Extensible Intervention for Preventing Task
Procrastination Using Large Generative Models
- arxiv url: http://arxiv.org/abs/2302.05678v1
- Date: Sat, 11 Feb 2023 12:23:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-14 19:10:27.984452
- Title: CatAlyst: Domain-Extensible Intervention for Preventing Task
Procrastination Using Large Generative Models
- Title(参考訳): Catalyst:大規模生成モデルを用いたタスクプロクラッション防止のためのドメイン拡張インターベンション
- Authors: Riku Arakawa, Hiromu Yakura, Masataka Goto
- Abstract要約: CatAlystは、生成モデルを使用して、労働者のタスクエンゲージメントに影響を与えることで、労働者の進捗を支援する。
作業の継続を発生させることで、注意をそらした労働者に作業再開を促す。
これらの結果から,大規模な生成モデルが公開されているが,各ドメインに不完全であり,労働者のデジタル幸福に寄与する新たな形態の人間とAIのコラボレーションが示唆された。
- 参考スコア(独自算出の注目度): 43.55878557075505
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: CatAlyst uses generative models to help workers' progress by influencing
their task engagement instead of directly contributing to their task outputs.
It prompts distracted workers to resume their tasks by generating a
continuation of their work and presenting it as an intervention that is more
context-aware than conventional (predetermined) feedback. The prompt can
function by drawing their interest and lowering the hurdle for resumption even
when the generated continuation is insufficient to substitute their work, while
recent human-AI collaboration research aiming at work substitution depends on a
stable high accuracy. This frees CatAlyst from domain-specific model-tuning and
makes it applicable to various tasks. Our studies involving writing and
slide-editing tasks demonstrated CatAlyst's effectiveness in helping workers
swiftly resume tasks with a lowered cognitive load. The results suggest a new
form of human-AI collaboration where large generative models publicly available
but imperfect for each individual domain can contribute to workers' digital
well-being.
- Abstract(参考訳): CatAlystは生成モデルを使用して、タスクのアウトプットに直接貢献するのではなく、タスクのエンゲージメントに影響を与えることで、作業の進捗を支援する。
作業の継続を生成し、従来の(事前決定された)フィードバックよりもコンテキストを意識した介入として提示することで、作業の再開を促す。
このプロンプトは、生成した継続が不十分な場合でも、興味を引いたり、再消費のハードルを下げて仕事を置き換えることによって機能するが、近年の人間とAIのコラボレーション研究は、高い精度で行われている。
これによりCatAlystはドメイン固有のモデルチューニングから解放され、様々なタスクに適用できる。
筆者らの研究は,作業者の認知負荷を低減したタスクを迅速に再開する上で,CatAlystの有効性を実証した。
これらの結果から,大規模な生成モデルが公開されているが,各ドメインに不完全であり,労働者のデジタル幸福に寄与する新たな形態の人間とAIのコラボレーションが示唆された。
関連論文リスト
- Two Heads Are Better Than One: Collaborative LLM Embodied Agents for Human-Robot Interaction [1.6574413179773757]
大規模言語モデル(LLM)は、自然言語コマンドを解釈するために、その膨大な理解を活用できなければならない。
しかし、これらのモデルは幻覚に悩まされ、安全上の問題やタスクからの逸脱を引き起こす可能性がある。
本研究では、一つの独立したAIエージェントに対して複数のコラボレーティブAIシステムがテストされ、他のドメインの成功が人間とロボットのインタラクション性能の改善につながるかどうかを判定した。
論文 参考訳(メタデータ) (2024-11-23T02:47:12Z) - Can Language Models Learn to Skip Steps? [59.84848399905409]
我々は推論においてステップをスキップする能力について研究する。
効率を高めたり認知負荷を減らすためのステップをスキップする人間とは異なり、モデルはそのようなモチベーションを持っていない。
私たちの研究は、人間のようなステップスキッピング能力に関する最初の調査である。
論文 参考訳(メタデータ) (2024-11-04T07:10:24Z) - Employing Artificial Intelligence to Steer Exascale Workflows with Colmena [37.42013214123005]
Colmenaは、アプリケーションがどのようにイベントに反応するかを一連の協調エージェントとして定義することを可能にする。
エクサスケールシステムにアプリケーションをデプロイしている間に克服した課題と、AIによって強化された科学について説明する。
私たちのビジョンは、Colmenaが科学コンピューティングの多くの領域でAIを活用する創造的なソリューションを刺激することです。
論文 参考訳(メタデータ) (2024-08-26T17:21:19Z) - WorkArena++: Towards Compositional Planning and Reasoning-based Common Knowledge Work Tasks [85.95607119635102]
大型言語モデル(LLM)は人間のような知性を模倣することができる。
WorkArena++は、Webエージェントの計画、問題解決、論理的/論理的推論、検索、コンテキスト的理解能力を評価するように設計されている。
論文 参考訳(メタデータ) (2024-07-07T07:15:49Z) - Generative AI in Writing Research Papers: A New Type of Algorithmic Bias
and Uncertainty in Scholarly Work [0.38850145898707145]
大規模言語モデル(LLM)と生成AIツールは、バイアスを特定し、対処する上での課題を提示している。
生成型AIツールは、不正な一般化、幻覚、レッド・チーム・プロンプトのような敵攻撃を目標とする可能性がある。
研究原稿の執筆過程に生成AIを組み込むことで,新しいタイプの文脈依存型アルゴリズムバイアスがもたらされることがわかった。
論文 参考訳(メタデータ) (2023-12-04T04:05:04Z) - Generative Models as a Complex Systems Science: How can we make sense of
large language model behavior? [75.79305790453654]
事前訓練されたモデルから望ましい振る舞いを排除し、望ましくないモデルを避けながら、NLPを再定義した。
言語モデルの振る舞いをタスク間性能を説明するカテゴリに分解する体系的な取り組みについて論じる。
論文 参考訳(メタデータ) (2023-07-31T22:58:41Z) - An Evolutionary Approach to Dynamic Introduction of Tasks in Large-scale
Multitask Learning Systems [4.675744559395732]
マルチタスク学習は、複数のタスクから学習できるモデルが知識伝達によってより良い品質と効率を達成すると仮定する。
最先端のMLモデルは、タスクごとに高いカスタマイズに依存し、タスクの数をスケールするのではなく、サイズとデータスケールを活用する。
本稿では,大規模マルチタスクモデルを生成でき,新しいタスクの動的かつ連続的な追加を支援する進化的手法を提案する。
論文 参考訳(メタデータ) (2022-05-25T13:10:47Z) - Piggyback GAN: Efficient Lifelong Learning for Image Conditioned
Generation [48.31909975623379]
コンボリューションフィルタとデコンボリューションフィルタのセットを構築することで,現在のタスクを学習するパラメータ効率の高いフレームワークであるPiggyback GANを提案する。
現在のタスクでは,本モデルでは,パラメータ数が低いスタンドアロンモデルと同等の高次品質を実現している。
異なるドメインのさまざまな画像コンディショニング生成タスクで Piggyback GAN を検証します。
論文 参考訳(メタデータ) (2021-04-24T12:09:52Z) - Human-in-the-Loop Imitation Learning using Remote Teleoperation [72.2847988686463]
6-DoF操作設定に合わせたデータ収集システムを構築します。
システムによって収集された新しいデータに基づいて,ポリシーを反復的にトレーニングするアルゴリズムを開発した。
介入型システムで収集したデータに基づいて訓練されたエージェントと、非介入型デモ参加者が収集した同等数のサンプルで訓練されたアルゴリズムを上回るエージェントを実証する。
論文 参考訳(メタデータ) (2020-12-12T05:30:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。