論文の概要: Dynamic Learning and Productivity for Data Analysts: A Bayesian Hidden Markov Model Perspective
- arxiv url: http://arxiv.org/abs/2503.20233v1
- Date: Wed, 26 Mar 2025 04:57:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-27 13:19:49.506100
- Title: Dynamic Learning and Productivity for Data Analysts: A Bayesian Hidden Markov Model Perspective
- Title(参考訳): データアナリストのための動的学習と生産性:ベイジアン隠れマルコフモデルの視点から
- Authors: Yue Yin,
- Abstract要約: 本研究では、協調プラットフォーム上でのアナリストの生産性の進化について考察する。
クエリの記述とピアクエリの閲覧という,2つの重要な学習活動に重点を置いている。
2,001人のアナリストと79,797のクエリを持つ業界データセットを用いて、初級、中級、上級の3つの学習状態を特定する。
- 参考スコア(独自算出の注目度): 1.9368956071944328
- License:
- Abstract: Data analysts are essential in organizations, transforming raw data into insights that drive decision-making and strategy. This study explores how analysts' productivity evolves on a collaborative platform, focusing on two key learning activities: writing queries and viewing peer queries. While traditional research often assumes static models, where performance improves steadily with cumulative learning, such models fail to capture the dynamic nature of real-world learning. To address this, we propose a Hidden Markov Model (HMM) that tracks how analysts transition between distinct learning states based on their participation in these activities. Using an industry dataset with 2,001 analysts and 79,797 queries, this study identifies three learning states: novice, intermediate, and advanced. Productivity increases as analysts advance to higher states, reflecting the cumulative benefits of learning. Writing queries benefits analysts across all states, with the largest gains observed for novices. Viewing peer queries supports novices but may hinder analysts in higher states due to cognitive overload or inefficiencies. Transitions between states are also uneven, with progression from intermediate to advanced being particularly challenging. This study advances understanding of into dynamic learning behavior of knowledge worker and offers practical implications for designing systems, optimizing training, enabling personalized learning, and fostering effective knowledge sharing.
- Abstract(参考訳): データアナリストは組織において不可欠であり、生データを意思決定と戦略を促進する洞察に変換する。
本研究は,クエリの記述とピアクエリの視聴という2つの主要な学習活動に焦点を当て,アナリストの生産性が協調的なプラットフォーム上でどのように進化するかを考察する。
従来の研究では、累積学習によってパフォーマンスが着実に向上する静的モデルを想定しているが、そのようなモデルは現実世界の学習の動的な性質を捉えていない。
これを解決するために,これらの活動への参加に基づいて,分析者が異なる学習状態間でどのように遷移するかを追跡する隠れマルコフモデル(HMM)を提案する。
2,001人のアナリストと79,797のクエリを持つ業界データセットを用いて、初級、中級、上級の3つの学習状態を特定する。
アナリストがより高い州に進むにつれて生産性が上昇し、学習の累積的な利益が反映される。
クエリを書くことは、すべての州でアナリストに利益をもたらす。
ピアクエリを見ることは初心者をサポートするが、認知的過負荷や非効率のため、より高い州のアナリストを妨げる可能性がある。
国家間の遷移も不均一であり、中間から先進への進行は特に困難である。
本研究は,知識労働者の動的学習行動への理解を深め,システムの設計,学習の最適化,個人化学習の実現,効果的な知識共有の促進に実践的な意味を提供する。
関連論文リスト
- Spurious Forgetting in Continual Learning of Language Models [20.0936011355535]
大規模言語モデル(LLM)の最近の進歩は、継続学習において複雑な現象を呈している。
大規模な訓練にもかかわらず、モデルは大幅な性能低下を経験する。
本研究では,このような性能低下が,真の知識喪失よりもタスクアライメントの低下を反映していることが示唆された。
論文 参考訳(メタデータ) (2025-01-23T08:09:54Z) - Data Analysis in the Era of Generative AI [56.44807642944589]
本稿では,AIを活用したデータ分析ツールの可能性について考察する。
我々は、大規模言語とマルチモーダルモデルの出現が、データ分析ワークフローの様々な段階を強化する新しい機会を提供する方法について検討する。
次に、直感的なインタラクションを促進し、ユーザ信頼を構築し、AI支援分析ワークフローを複数のアプリにわたって合理化するための、人間中心の設計原則を調べます。
論文 参考訳(メタデータ) (2024-09-27T06:31:03Z) - Translating Expert Intuition into Quantifiable Features: Encode Investigator Domain Knowledge via LLM for Enhanced Predictive Analytics [2.330270848695646]
本稿では,調査対象から得られた洞察を定量的かつ実用的な特徴に体系的に変換することで,ギャップを埋める大規模言語モデルの可能性を探る。
我々は、LLMの自然言語理解機能を活用して、これらの赤いフラグを既存の予測モデルに容易に統合可能な構造化機能セットにエンコードするフレームワークを提案する。
その結果、リスク評価と意思決定精度が大幅に向上し、高度な機械学習技術と人間の経験的知識を融合させることの価値が強調された。
論文 参考訳(メタデータ) (2024-05-11T13:23:43Z) - Evolving Knowledge Distillation with Large Language Models and Active
Learning [46.85430680828938]
大規模言語モデル(LLM)は、様々なNLPタスクにまたがる顕著な機能を示している。
従来の研究は、注釈付きデータを生成してLPMの知識をより小さなモデルに抽出しようと試みてきた。
EvoKD: Evolving Knowledge Distillationを提案する。これは、アクティブラーニングの概念を利用して、大規模言語モデルを用いたデータ生成のプロセスをインタラクティブに強化する。
論文 参考訳(メタデータ) (2024-03-11T03:55:24Z) - Exploring Federated Unlearning: Analysis, Comparison, and Insights [101.64910079905566]
フェデレーション・アンラーニングは、フェデレーション・システムで訓練されたモデルからデータを選択的に除去することを可能にする。
本稿では,既存のフェデレーション・アンラーニング手法について検討し,アルゴリズムの効率,モデル精度への影響,プライバシ保護の有効性について検討する。
フェデレートされたアンラーニング手法を評価するための統一ベンチマークであるOpenFederatedUnlearningフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-30T01:34:33Z) - Accelerating exploration and representation learning with offline
pre-training [52.6912479800592]
1つのオフラインデータセットから2つの異なるモデルを別々に学習することで、探索と表現の学習を改善することができることを示す。
ノイズコントラスト推定と補助報酬モデルを用いて状態表現を学習することで、挑戦的なNetHackベンチマークのサンプル効率を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2023-03-31T18:03:30Z) - An Empirical Investigation of Commonsense Self-Supervision with
Knowledge Graphs [67.23285413610243]
大規模知識グラフから抽出した情報に基づく自己監督は、言語モデルの一般化を改善することが示されている。
本研究では,言語モデルに適用可能な合成データを生成するための知識サンプリング戦略とサイズの影響について検討する。
論文 参考訳(メタデータ) (2022-05-21T19:49:04Z) - What Makes Good Contrastive Learning on Small-Scale Wearable-based
Tasks? [59.51457877578138]
本研究では,ウェアラブル型行動認識タスクにおけるコントラスト学習について検討する。
本稿では,PyTorchライブラリのtextttCL-HAR について述べる。
論文 参考訳(メタデータ) (2022-02-12T06:10:15Z) - Do we need to go Deep? Knowledge Tracing with Big Data [5.218882272051637]
教育分野で公開されている最大の学生インタラクションデータセットであるEdNetを使用して、深層モデルと従来のモデルの両方が将来の学生のパフォーマンスを正確に予測する方法を理解しています。
我々の研究は、慎重に設計された特徴を持つロジスティック回帰モデルが広範な実験から深いモデルよりも優れていることを観察する。
論文 参考訳(メタデータ) (2021-01-20T22:40:38Z) - Principles and Practice of Explainable Machine Learning [12.47276164048813]
本稿では、特に機械学習(ML)とパターン認識モデルに関するデータ駆動手法に焦点を当てる。
メソッドの頻度と複雑さが増すにつれて、少なくともビジネスの利害関係者はモデルの欠点に懸念を抱いている。
我々は、業界実践者が説明可能な機械学習の分野をよりよく理解するための調査を実施した。
論文 参考訳(メタデータ) (2020-09-18T14:50:27Z) - Human Trajectory Forecasting in Crowds: A Deep Learning Perspective [89.4600982169]
本稿では,既存の深層学習に基づくソーシャルインタラクションのモデル化手法について詳細に分析する。
本稿では、これらの社会的相互作用を効果的に捉えるための知識に基づく2つのデータ駆動手法を提案する。
我々は,人間の軌道予測分野において,重要かつ欠落したコンポーネントであるTrajNet++を大規模に開発する。
論文 参考訳(メタデータ) (2020-07-07T17:19:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。