論文の概要: Campus AI vs Commercial AI: A Late-Breaking Study on How LLM As-A-Service Customizations Shape Trust and Usage Patterns
- arxiv url: http://arxiv.org/abs/2505.10490v1
- Date: Thu, 15 May 2025 16:45:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-16 22:29:06.424559
- Title: Campus AI vs Commercial AI: A Late-Breaking Study on How LLM As-A-Service Customizations Shape Trust and Usage Patterns
- Title(参考訳): Campus AI vs. 商用AI: LLM as-A-Service Customizations shape TrustとUsage Patterns
- Authors: Leon Hannig, Annika Bush, Meltem Aksoy, Steffen Becker, Greta Ontrup,
- Abstract要約: 大規模言語モデル(LLM)は、特定の(ビジネス)ニーズに合わせてカスタマイズ可能な、事前訓練されたモデルを提供する。
本研究は, 学生や従業員が, 施設のカスタマイズ LLM をどう認識し, 活用するかを, 大規模フィールドスタディにおける機能的前兆として捉えたものである。
- 参考スコア(独自算出の注目度): 0.7466235023455281
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As the use of Large Language Models (LLMs) by students, lecturers and researchers becomes more prevalent, universities - like other organizations - are pressed to develop coherent AI strategies. LLMs as-a-Service (LLMaaS) offer accessible pre-trained models, customizable to specific (business) needs. While most studies prioritize data, model, or infrastructure adaptations (e.g., model fine-tuning), we focus on user-salient customizations, like interface changes and corporate branding, which we argue influence users' trust and usage patterns. This study serves as a functional prequel to a large-scale field study in which we examine how students and employees at a German university perceive and use their institution's customized LLMaaS compared to ChatGPT. The goals of this prequel are to stimulate discussions on psychological effects of LLMaaS customizations and refine our research approach through feedback. Our forthcoming findings will deepen the understanding of trust dynamics in LLMs, providing practical guidance for organizations considering LLMaaS deployment.
- Abstract(参考訳): 学生や講師、研究者によるLarge Language Models (LLMs)の使用が普及するにつれて、他の組織と同様に大学も、一貫性のあるAI戦略の開発を迫られている。
LLMs as-a-Service(LLMaaS)は、特定の(ビジネス)ニーズに合わせてカスタマイズ可能な、事前トレーニング済みのモデルを提供する。
ほとんどの研究では、データやモデル、インフラストラクチャ適応(例えば、モデル微調整)を優先していますが、インターフェースの変更や企業ブランディングといった、ユーザ中心のカスタマイズに重点を置いています。
本研究は、ドイツの大学における学生や従業員が、ChatGPTと比較して、それぞれの機関のカスタマイズ LLMaaS をどのように認識し、活用しているかを調査する大規模なフィールドスタディの、機能的前兆となる。
本研究の目的は、LLMaaSのカスタマイズによる心理的影響に関する議論を刺激し、フィードバックを通じて研究アプローチを洗練することである。
今後の知見は, LLMaaSの信頼性の理解を深め, LLMaaSの展開を検討する組織に対して実践的なガイダンスを提供する。
関連論文リスト
- Bayesian Teaching Enables Probabilistic Reasoning in Large Language Models [50.16340812031201]
我々は,大規模言語モデル (LLM) がベイジアンフレームワークから期待されているように,その信念を更新しないことを示す。
我々は、最適ベイズモデルの予測を模倣するように訓練することで、ベイズ的な推論をLLMに教える。
論文 参考訳(メタデータ) (2025-03-21T20:13:04Z) - Measuring What Makes You Unique: Difference-Aware User Modeling for Enhancing LLM Personalization [68.79814761867314]
本稿では,Large Language Models (LLM) のパーソナライゼーションを強化するために,差分認識パーソナライズ学習(DPL)を提案する。
DPLは、戦略的に代表ユーザを比較のために選択し、タスク関連の違いを抽出するための構造化標準を確立する。
実世界のデータセットの実験により、DPLはLLMのパーソナライゼーションを大幅に向上させることが示された。
論文 参考訳(メタデータ) (2025-03-04T09:53:26Z) - LLM Post-Training: A Deep Dive into Reasoning Large Language Models [131.10969986056]
大規模言語モデル (LLMs) は自然言語処理の状況を変え、多様な応用をもたらした。
ポストトレーニング手法により、LLMは知識を洗練させ、推論を改善し、事実の正確性を高め、ユーザの意図や倫理的配慮をより効果的に整合させることができる。
論文 参考訳(メタデータ) (2025-02-28T18:59:54Z) - From Selection to Generation: A Survey of LLM-based Active Learning [153.8110509961261]
大きな言語モデル(LLM)は、全く新しいデータインスタンスを生成し、よりコスト効率の良いアノテーションを提供するために使われています。
本調査は,LSMに基づくAL手法の直感的な理解を目指して,研究者や実践者の最新のリソースとして機能することを目的としている。
論文 参考訳(メタデータ) (2025-02-17T12:58:17Z) - Federated In-Context LLM Agent Learning [3.4757641432843487]
大規模言語モデル(LLM)は、論理的推論、ツールの使用、エージェントとしての外部システムとの相互作用を可能にすることによって、インテリジェントなサービスに革命をもたらした。
本稿では,プライバシ保護型フェデレーション・イン・コンテクスト LLM Agent Learning (FICAL) アルゴリズムを提案する。
その結果、FICALは、他のSOTAベースラインと比較して競争性能が優れており、通信コストの大幅な削減は、$mathbf3.33times105$倍であることがわかった。
論文 参考訳(メタデータ) (2024-12-11T03:00:24Z) - Personalization of Large Language Models: A Survey [131.00650432814268]
大規模言語モデル(LLM)のパーソナライゼーションは、最近、広範囲のアプリケーションでますます重要になっている。
パーソナライズ LLM に関する既存の研究の多くは、(a)パーソナライズされたテキスト生成、または(b)レコメンデーションシステムのようなパーソナライズに関連する下流アプリケーションに LLM を活用することに集中している。
パーソナライズされたLSM使用のための分類を導入し、主要な違いと課題を要約する。
論文 参考訳(メタデータ) (2024-10-29T04:01:11Z) - Quantitative Insights into Large Language Model Usage and Trust in Academia: An Empirical Study [27.7299835314702]
大規模言語モデル(LLM)は、多くの学術分野において、文章、読み、教え、知識検索を変革している。
使用状況の正確な定量化,アウトプットに対するユーザの信頼,デプロイメントの優先順位付けに要する重要な問題に関する懸念などが求められます。
本研究は, 私立R1研究大学の125名の個人を対象に, LLMの使用状況, LLMのアウトプットに対する信頼度, 学界におけるロバストな利用を優先する重要な課題について調査した。
論文 参考訳(メタデータ) (2024-09-13T20:45:50Z) - Using Advanced LLMs to Enhance Smaller LLMs: An Interpretable Knowledge Distillation Approach [6.154304269581415]
高度な大規模言語モデル(LLM)は、複雑な人間のような相互作用において優れた性能を提供する。
LLMは高価で、スマートフォンのようなエッジデバイスには大きすぎるし、セルフホストが難しいため、セキュリティやプライバシーの懸念が生じる。
本稿では,より小型で経済的なLLMの性能を高めるために,新しい解釈可能な知識蒸留手法を提案する。
論文 参考訳(メタデータ) (2024-08-13T23:59:36Z) - AutoTutor meets Large Language Models: A Language Model Tutor with Rich Pedagogy and Guardrails [43.19453208130667]
大規模言語モデル(LLM)は、自動質問生成からエッセイ評価まで、いくつかのユースケースを教育で発見した。
本稿では,Large Language Models (LLMs) を用いて知的チューリングシステムを構築する可能性について検討する。
MWPTutor は LLM を用いて事前定義された有限状態トランスデューサの状態空間を補う。
論文 参考訳(メタデータ) (2024-02-14T14:53:56Z) - An Empirical Study on Usage and Perceptions of LLMs in a Software
Engineering Project [1.433758865948252]
大規模言語モデル(LLM)は人工知能の飛躍であり、人間の言語を用いたタスクに優れる。
本稿では、AI生成したコードを分析し、コード生成に使用するプロンプトと人間の介入レベルを分析し、コードをコードベースに統合する。
ソフトウェア開発の初期段階において,LSMが重要な役割を担っていることが示唆された。
論文 参考訳(メタデータ) (2024-01-29T14:32:32Z) - Supervised Knowledge Makes Large Language Models Better In-context Learners [94.89301696512776]
大規模言語モデル(LLM)は、素早い工学を通して、文脈内学習能力の出現を示す。
自然言語理解と質問応答におけるLLMの一般化性と事実性の向上という課題は、まだ未解決のままである。
本研究では, LLM の信頼性を高める枠組みを提案する。1) 分布外データの一般化,2) 差別モデルによる LLM のメリットの解明,3) 生成タスクにおける幻覚の最小化。
論文 参考訳(メタデータ) (2023-12-26T07:24:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。