論文の概要: Factory Operators' Perspectives on Cognitive Assistants for Knowledge Sharing: Challenges, Risks, and Impact on Work
- arxiv url: http://arxiv.org/abs/2409.20192v1
- Date: Mon, 30 Sep 2024 11:08:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-02 13:07:12.706624
- Title: Factory Operators' Perspectives on Cognitive Assistants for Knowledge Sharing: Challenges, Risks, and Impact on Work
- Title(参考訳): 知識共有のための認知アシスタントに関するファクトリ・オペレーターの視点--課題,リスク,作業への影響
- Authors: Samuel Kernan Freire, Tianhao He, Chaofan Wang, Evangelos Niforatos, Alessandro Bozzon,
- Abstract要約: 本研究では,工場における認知アシスタント(CA)の展開が現実世界に与える影響について検討した。
以上の結果から,CAは知識共有による効率向上の可能性を秘めているものの,職場監視に関する懸念ももたらしている。
本研究は, プライバシ, ナレッジコントリビューションの負担, 工場経営者と経営者の緊張感に対処することの重要性を強調した。
- 参考スコア(独自算出の注目度): 51.78233291198334
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the shift towards human-centered manufacturing, our two-year longitudinal study investigates the real-world impact of deploying Cognitive Assistants (CAs) in factories. The CAs were designed to facilitate knowledge sharing among factory operators. Our investigation focused on smartphone-based voice assistants and LLM-powered chatbots, examining their usability and utility in a real-world factory setting. Based on the qualitative feedback we collected during the deployments of CAs at the factories, we conducted a thematic analysis to investigate the perceptions, challenges, and overall impact on workflow and knowledge sharing. Our results indicate that while CAs have the potential to significantly improve efficiency through knowledge sharing and quicker resolution of production issues, they also introduce concerns around workplace surveillance, the types of knowledge that can be shared, and shortcomings compared to human-to-human knowledge sharing. Additionally, our findings stress the importance of addressing privacy, knowledge contribution burdens, and tensions between factory operators and their managers.
- Abstract(参考訳): 2年間の縦断調査では,工場における認知アシスタント(CA)の展開が現実に与える影響について検討した。
CAは工場運営者間の知識共有を容易にするように設計された。
我々はスマートフォンベースの音声アシスタントとLLMを利用したチャットボットに焦点をあて、実世界の工場環境でのユーザビリティと実用性について検討した。
工場におけるCAの展開中に収集した質的なフィードバックに基づいて,ワークフローと知識の共有に対する認識,課題,および全体的な影響について,テーマ分析を行った。
以上の結果から,CAは知識共有と生産問題の迅速な解決を通じて,効率を著しく向上させる可能性がある一方で,職場の監視,共有可能な知識の種類,人間と人間の知識の共有に比較して欠点を生じさせる可能性が示唆された。
さらに,我々は,プライバシ,知識提供の負担,工場運営者とその管理者間の緊張感に対処することの重要性を強調した。
関連論文リスト
- From Pre-training Corpora to Large Language Models: What Factors Influence LLM Performance in Causal Discovery Tasks? [51.42906577386907]
本研究では,因果発見タスクにおけるLarge Language Models(LLM)の性能に影響を与える要因について検討する。
因果関係の頻度が高いことは、より良いモデル性能と相関し、トレーニング中に因果関係の情報に広範囲に暴露することで、因果関係の発見能力を高めることを示唆している。
論文 参考訳(メタデータ) (2024-07-29T01:45:05Z) - An Empirical Exploration of Trust Dynamics in LLM Supply Chains [11.057310859302248]
我々は、AIシステムが生み出す複雑で動的なサプライチェーンを考慮し、AIへの信頼に対処する研究の範囲を広げることを主張する。
私たちの研究は、新たなタイプの信頼者、信頼者、信頼関係に影響を与える新しい要因を明らかにします。
論文 参考訳(メタデータ) (2024-05-25T17:37:56Z) - WESE: Weak Exploration to Strong Exploitation for LLM Agents [95.6720931773781]
本稿では,オープンワールド対話型タスクの解法において,LLMエージェントの強化を目的としたWeak Exploration to Strong Exploitation (WESE)を提案する。
WESEは、探究と搾取のプロセスを分離し、費用対効果の弱いエージェントを用いて世界的知識の探索を行う。
次に、獲得した知識を格納し、タスク関連知識を抽出する知識グラフベースの戦略を導入する。
論文 参考訳(メタデータ) (2024-04-11T03:31:54Z) - Knowledge Sharing in Manufacturing using Large Language Models: User
Evaluation and Model Benchmarking [7.976952274443561]
大規模言語モデル(LLM)ベースのシステムは、専門家が共有する工場文書や知識から情報を取得するように設計されている。
システムは、オペレータからの問い合わせに効率的に答え、新しい知識の共有を容易にすることを目的としている。
論文 参考訳(メタデータ) (2024-01-10T14:53:18Z) - Beyond Factuality: A Comprehensive Evaluation of Large Language Models
as Knowledge Generators [78.63553017938911]
大規模言語モデル(LLM)は、下流の知識集約タスクのための情報検索技術より優れている。
しかし、コミュニティの懸念は、この無検閲の知識を使用することの事実と潜在的意味について多岐にわたる。
本研究では,6つの重要な視点から生成した知識を評価するために設計されたCONNERを紹介する。
論文 参考訳(メタデータ) (2023-10-11T08:22:37Z) - Assessing Trust in Construction AI-Powered Collaborative Robots using
Structural Equation Modeling [0.0]
安全と信頼性は、建設におけるAI駆動コボットの採用の重要な要因である。
コボットの使用による置き換えの恐れは、影響を受けた労働者のメンタルヘルスに重大な影響を及ぼす可能性がある。
コボット、安全性測定、コボットが収集したデータのセキュリティを含むジョブのエラー率の低下は、信頼性に大きな影響を及ぼす。
コボットの内部動作の透明性は、正確性、堅牢性、セキュリティ、プライバシ、コミュニケーションに有効である。
論文 参考訳(メタデータ) (2023-08-28T16:39:22Z) - Investigating the Factual Knowledge Boundary of Large Language Models
with Retrieval Augmentation [91.30946119104111]
大規模言語モデル(LLM)は,質問に応答する能力に対して,波及しない自信を持っていることを示す。
検索の強化は、LLMの知識境界に対する認識を高める効果的なアプローチであることが証明されている。
また, LLM は, 回答の定式化に際し, 提案した検索結果に依存する傾向が認められた。
論文 参考訳(メタデータ) (2023-07-20T16:46:10Z) - Trustworthy, responsible, ethical AI in manufacturing and supply chains:
synthesis and emerging research questions [59.34177693293227]
製造の文脈において、責任、倫理、信頼できるAIの適用性について検討する。
次に、機械学習ライフサイクルのより広範な適応を使用して、実証的な例を用いて、各ステップが与えられたAIの信頼性に関する懸念にどのように影響するかを議論します。
論文 参考訳(メタデータ) (2023-05-19T10:43:06Z) - Pitfalls in Effective Knowledge Management: Insights from an
International Information Technology Organization [8.847473225998908]
本研究の目的は、個人が効果的に知識を共有し管理することを妨げる障害要因を特定することである。
いくつかの障害要因が特定され、個人的社会的トピック、組織的社会的トピック、技術的なトピック、環境的トピック、および関連する社会的および技術的トピックに分類された。
これらの障害を緩和するための推奨事項は、トレーニングやガイドラインなど、従業員の行動を改善することに焦点を当てている。
論文 参考訳(メタデータ) (2023-04-16T09:45:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。