論文の概要: Prompt Engineering and the Effectiveness of Large Language Models in Enhancing Human Productivity
- arxiv url: http://arxiv.org/abs/2507.18638v2
- Date: Wed, 27 Aug 2025 21:28:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-29 13:55:31.54073
- Title: Prompt Engineering and the Effectiveness of Large Language Models in Enhancing Human Productivity
- Title(参考訳): プロンプト工学と人的生産性向上における大規模言語モデルの有効性
- Authors: Rizal Khoirul Anam,
- Abstract要約: 本稿では,ユーザの構造と明快さが大規模言語モデル(LLM)の有効性と生産性に与える影響について考察する。
その結果, 明確で構造化された, コンテキスト対応のユーザに対して, タスク効率の向上と, より良い結果の報告を促すことが示唆された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The widespread adoption of large language models (LLMs) such as ChatGPT, Gemini, and DeepSeek has significantly changed how people approach tasks in education, professional work, and creative domains. This paper investigates how the structure and clarity of user prompts impact the effectiveness and productivity of LLM outputs. Using data from 243 survey respondents across various academic and occupational backgrounds, we analyze AI usage habits, prompting strategies, and user satisfaction. The results show that users who employ clear, structured, and context-aware prompts report higher task efficiency and better outcomes. These findings emphasize the essential role of prompt engineering in maximizing the value of generative AI and provide practical implications for its everyday use.
- Abstract(参考訳): ChatGPT、Gemini、DeepSeekといった大規模言語モデル(LLM)の普及は、人々が教育、専門職、クリエイティブドメインのタスクにどのようにアプローチするかを大きく変えた。
本稿では,ユーザの構造と明快さがLCM出力の有効性と生産性に与える影響について検討する。
さまざまな学術的、職業的背景の243人の調査回答者のデータを用いて、AIの使用習慣、戦略の推進、ユーザの満足度を分析します。
その結果, 明確で構造化された, コンテキスト対応のユーザに対して, タスク効率の向上と, より良い結果の報告を促すことが示唆された。
これらの知見は、生成AIの価値を最大化し、その日常的利用に実践的な意味を与えるために、素早い工学が果たす重要な役割を強調している。
関連論文リスト
- Training Proactive and Personalized LLM Agents [107.57805582180315]
生産性, 積極性, パーソナライゼーションの3つの側面を共同で最適化する多目的強化学習手法である PPP を導入する。
PPP訓練剤はGPT-5(平均21.6)などの強いベースラインよりも大幅に改善されている。
この研究は、ユーザ中心のインタラクションを明示的に最適化することが、実用的で効果的なAIエージェントを構築する上で重要であることを実証している。
論文 参考訳(メタデータ) (2025-11-04T02:59:36Z) - PromptPilot: Improving Human-AI Collaboration Through LLM-Enhanced Prompt Engineering [4.346377939583986]
PromptPilotは、4つの実験的に導出された設計目標を基盤とした対話型プロンプトアシスタントである。
80名の被験者によるランダム化制御実験を行い、3つの現実的作業関連書記タスクを完了した。
論文 参考訳(メタデータ) (2025-10-01T06:14:42Z) - The SPACE of AI: Real-World Lessons on AI's Impact on Developers [0.807084206814932]
我々は,SPACEフレームワークの次元にまたがるAIの影響,すなわち満足度,パフォーマンス,アクティビティ,コラボレーション,効率を,開発者がどのように認識するかを研究する。
AIは広く採用されており、生産性の向上、特にルーチンタスクに広く見なされている。
開発者の報告によると、効率性と満足度は向上し、コラボレーションへの影響の証拠は少なくなった。
論文 参考訳(メタデータ) (2025-07-31T21:45:54Z) - Active Learning Methods for Efficient Data Utilization and Model Performance Enhancement [5.4044723481768235]
本稿では,より少ないラベル付き例を用いてモデルの性能向上を支援する機械学習の戦略である,アクティブラーニング(AL)の概要を紹介する。
ALの基本概念を導入し、コンピュータビジョン、自然言語処理、トランスファーラーニング、実世界のアプリケーションなど、様々な分野でどのように使われているかについて議論する。
論文 参考訳(メタデータ) (2025-04-21T20:42:13Z) - Exploring the Generalizability of Factual Hallucination Mitigation via Enhancing Precise Knowledge Utilization [49.95746521480879]
PKUE(Precise Knowledge utilization Enhancement, 精密知識利用促進)を導入し, 正確かつ単純な事実質問に対する自己生成応答のモデルを微調整する。
大規模な実験により、PKUEはLLM全体の性能を著しく改善することが示された。
論文 参考訳(メタデータ) (2025-02-26T13:34:52Z) - Towards Coarse-to-Fine Evaluation of Inference Efficiency for Large Language Models [95.96734086126469]
大規模言語モデル(LLM)は、ユーザが仕事を達成するのを助けるアシスタントとして機能し、高度なアプリケーションの開発をサポートする。
LLMの幅広い応用にとって、推論効率は重要な問題であり、既存の研究で広く研究されている。
各種コードライブラリの推論性能の粗大な解析を行う。
論文 参考訳(メタデータ) (2024-04-17T15:57:50Z) - Evaluating and Optimizing Educational Content with Large Language Model Judgments [52.33701672559594]
言語モデル(LM)を教育専門家として活用し,学習結果に対する様々な指導の影響を評価する。
本稿では,一方のLMが他方のLMの判断を報酬関数として利用して命令材料を生成する命令最適化手法を提案する。
ヒトの教師によるこれらのLM生成ワークシートの評価は、LM判定と人間の教師の嗜好との間に有意な整合性を示す。
論文 参考訳(メタデータ) (2024-03-05T09:09:15Z) - Persona-DB: Efficient Large Language Model Personalization for Response Prediction with Collaborative Data Refinement [79.2400720115588]
本稿では,タスクコンテキスト間の一般化を改善するための階層的な構築プロセスからなる,シンプルで効果的なフレームワークであるPersona-DBを紹介する。
応答予測の評価において,Persona-DB は精度を著しく低減した検索サイズで維持する上で,より優れたコンテキスト効率を示す。
我々の実験は、ユーザーが極めて少ないデータを持つ場合、コールドスタートシナリオで10%以上の顕著な改善が示されていることも示している。
論文 参考訳(メタデータ) (2024-02-16T20:20:43Z) - From User Surveys to Telemetry-Driven AI Agents: Exploring the Potential of Personalized Productivity Solutions [21.79433247723466]
情報労働者は、現代の職場で生産性の課題にますます苦労している。
エンタープライズツールを通じて生産性のメトリクスが利用可能であるにもかかわらず、労働者はしばしばこのデータを実行可能な洞察に変換するのに失敗する。
ユーザのニーズに合わせたAIベースの生産性エージェントを通じて、これらの課題に対処するための包括的でユーザ中心のアプローチを提案する。
論文 参考訳(メタデータ) (2024-01-17T04:20:10Z) - Knowledge Plugins: Enhancing Large Language Models for Domain-Specific
Recommendations [50.81844184210381]
本稿では,大規模言語モデルをDOmain固有のKnowledgEで拡張し,実践的アプリケーション,すなわちDOKEの性能を向上させるためのパラダイムを提案する。
このパラダイムはドメイン知識抽出器に依存し,1)タスクに効果的な知識を準備すること,2)特定のサンプルごとに知識を選択すること,3)LLMで理解可能な方法で知識を表現すること,の3つのステップで動作する。
論文 参考訳(メタデータ) (2023-11-16T07:09:38Z) - Instruction Tuning for Large Language Models: A Survey [52.86322823501338]
我々は、教師付き微調整(SFT)の一般的な方法論を含む、文献の体系的なレビューを行う。
また、既存の戦略の欠陥を指摘しながら、SFTの潜在的な落とし穴についても、それに対する批判とともに検討する。
論文 参考訳(メタデータ) (2023-08-21T15:35:16Z) - Exploring Large Language Model for Graph Data Understanding in Online
Job Recommendations [63.19448893196642]
本稿では,大規模言語モデルが提供するリッチな文脈情報と意味表現を利用して行動グラフを解析する新しいフレームワークを提案する。
この機能を利用することで、個々のユーザに対してパーソナライズされた、正確なジョブレコメンデーションが可能になる。
論文 参考訳(メタデータ) (2023-07-10T11:29:41Z) - OverPrompt: Enhancing ChatGPT through Efficient In-Context Learning [49.38867353135258]
複数のタスク入力を処理するために,LLMのコンテキスト内学習機能を活用したOverPromptを提案する。
本実験により,OverPromptはタスク性能を著しく損なうことなく,コスト効率の良いゼロショット分類を実現することができることがわかった。
論文 参考訳(メタデータ) (2023-05-24T10:08:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。