論文の概要: Configuration Work: Four Consequences of LLMs-in-use
- arxiv url: http://arxiv.org/abs/2512.19189v1
- Date: Mon, 22 Dec 2025 09:27:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.691086
- Title: Configuration Work: Four Consequences of LLMs-in-use
- Title(参考訳): 構成作業: LLMs-in-useの4つの結果
- Authors: Gabriel Alcaras, Donato Ricci,
- Abstract要約: 我々は、大規模言語モデルが直接的にタスクを自動化または拡張するわけではないと論じる。
本稿では、労働者が特定の専門業務に利用できる汎用システムを構築する作業を記述するための構成作業の概念を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This article examines what it means to use Large Language Models in everyday work. Drawing on a seven-month longitudinal qualitative study, we argue that LLMs do not straightforwardly automate or augment tasks. We propose the concept of configuration work to describe the labor through which workers make a generic system usable for a specific professional task. Configuration work materializes in four intertwined consequences. First, workers must discretize their activity, breaking it into units that the system can process. Second, operating the system generates cluttering, as prompting, evaluating, and correcting responses add scattered layers of work that get in the way of existing routines. Third, users gradually attune their practices and expectations to the machine's generic rigidity, making sense of the system's limits and finding space for it within their practices. Fourth, as LLMs absorb repetitive tasks, they desaturate the texture of work, shifting activity toward logistical manipulation of outputs and away from forms of engagement that sustain a sense of accomplishment. Taken together, these consequences suggest that LLMs reshape work through the individualized labor required to configure a universal, task-agnostic system within situated professional ecologies.
- Abstract(参考訳): この記事では、日々の作業で大規模言語モデルを使うことの意味について考察する。
7ヶ月にわたる質的研究に基づいて,LSMは直接的にタスクの自動化や強化を行わないと主張している。
本稿では、労働者が特定の専門業務に利用できる汎用システムを構築する作業を記述するための構成作業の概念を提案する。
構成作業は4つの相反する結果をもたらす。
まず、作業者はアクティビティを識別し、システムを処理できるユニットに分割する必要があります。
第二に、システムはクラッタリングを生成し、応答のプロンプト、評価、修正を行い、既存のルーチンの邪魔になるような分散した作業層を追加します。
第三に、ユーザは徐々にプラクティスと期待をマシンの汎用的剛性に向け、システムの限界を理解し、そのプラクティス内にそのスペースを見つける。
第4に、LLMは反復的なタスクを吸収するので、作業の質感を低下させ、成果のロジカルな操作に向けて活動をシフトさせ、達成感を維持するエンゲージメントの形式から遠ざかる。
これらの結果から, LLMは, 職業生態学における普遍的, タスクに依存しないシステムを構成するために必要な, 個別化された作業を通じて, 作業を再形成すると考えられる。
関連論文リスト
- Fundamentals of Building Autonomous LLM Agents [64.39018305018904]
本稿では,大規模言語モデル(LLM)を用いたエージェントのアーキテクチャと実装手法について概説する。
この研究は、複雑なタスクを自動化し、人間の能力でパフォーマンスのギャップを埋めることのできる「アジェンティック」なLLMを開発するためのパターンを探求することを目的としている。
論文 参考訳(メタデータ) (2025-10-10T10:32:39Z) - Exploring GPT-4 for Robotic Agent Strategy with Real-Time State Feedback and a Reactive Behaviour Framework [0.0]
我々は,新しい大規模言語モデル(LLM)駆動行動法の概念実証として,ヒューマノイドロボットと実世界におけるGPT-4の利用について検討する。
問題は、LLMに目標を与え、LLMはその目標を達成するためにサブタスクを出力することである。
本稿では,安全性,タスク間の遷移,タスクの時間的地平線,状態フィードバックに関する現実的な懸念に対処する手法を提案する。
論文 参考訳(メタデータ) (2025-03-30T21:53:28Z) - WorkArena++: Towards Compositional Planning and Reasoning-based Common Knowledge Work Tasks [85.95607119635102]
大型言語モデル(LLM)は人間のような知性を模倣することができる。
WorkArena++は、Webエージェントの計画、問題解決、論理的/論理的推論、検索、コンテキスト的理解能力を評価するように設計されている。
論文 参考訳(メタデータ) (2024-07-07T07:15:49Z) - The Strong Pull of Prior Knowledge in Large Language Models and Its Impact on Emotion Recognition [74.04775677110179]
In-context Learning (ICL) は、Large Language Models (LLM) を用いた自然言語処理のための強力なパラダイムとして登場した。
LLMには、感情認識において強いが矛盾する先行性があり、その予測に影響を及ぼすことが示される。
以上の結果から,ICLをより大きなLCMで事前学習領域外の情動中心タスクに使用する場合,注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2024-03-25T19:07:32Z) - Interactive Planning Using Large Language Models for Partially
Observable Robotics Tasks [54.60571399091711]
大きな言語モデル(LLM)は、オープン語彙タスクを実行するロボットエージェントを作成することで、驚くべき成果を上げている。
LLMを用いた部分的に観測可能なタスクのための対話型計画手法を提案する。
論文 参考訳(メタデータ) (2023-12-11T22:54:44Z) - LLM4Jobs: Unsupervised occupation extraction and standardization
leveraging Large Language Models [14.847441358093866]
本稿では,LLM4Jobsについて紹介する。LLM4Jobsは,大規模言語モデル(LLM)の職業的符号化能力を活用する,教師なしの方法論である。
合成および実世界のデータセット上で厳密な実験を行い、LLM4Jobsが教師なしの最先端ベンチマークを一貫して上回っていることを示す。
論文 参考訳(メタデータ) (2023-09-18T12:22:00Z) - Pre-training Multi-task Contrastive Learning Models for Scientific
Literature Understanding [52.723297744257536]
事前学習言語モデル(LM)は、科学文献理解タスクにおいて有効であることを示す。
文献理解タスク間の共通知識共有を容易にするために,マルチタスクのコントラスト学習フレームワークであるSciMultを提案する。
論文 参考訳(メタデータ) (2023-05-23T16:47:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。