論文の概要: Temperature in SLMs: Impact on Incident Categorization in On-Premises Environments
- arxiv url: http://arxiv.org/abs/2511.19464v1
- Date: Fri, 21 Nov 2025 19:37:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.005694
- Title: Temperature in SLMs: Impact on Incident Categorization in On-Premises Environments
- Title(参考訳): SLMにおける温度:オンプレミス環境におけるインシデント分類への影響
- Authors: Marcio Pohlmann, Alex Severo, Gefté Almeida, Diego Kreutz, Tiago Heinrich, Lourenço Pereira,
- Abstract要約: ローカルに実行されたSLMがこの課題に対処できるかどうかを検討する。
その結果、温度は性能にはほとんど影響を与えず、パラメータの数とGPU容量は決定的な要因であることがわかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: SOCs and CSIRTs face increasing pressure to automate incident categorization, yet the use of cloud-based LLMs introduces costs, latency, and confidentiality risks. We investigate whether locally executed SLMs can meet this challenge. We evaluated 21 models ranging from 1B to 20B parameters, varying the temperature hyperparameter and measuring execution time and precision across two distinct architectures. The results indicate that temperature has little influence on performance, whereas the number of parameters and GPU capacity are decisive factors.
- Abstract(参考訳): SOCとCSIRTは、インシデント分類を自動化する圧力が高まる一方で、クラウドベースのLCMを使用することで、コスト、レイテンシ、機密性リスクがもたらされる。
ローカルに実行されたSLMがこの課題に対処できるかどうかを検討する。
我々は,1Bから20Bのパラメータから,温度ハイパーパラメータの変動,および2つの異なるアーキテクチャにおける実行時間と精度を測定する21のモデルを評価した。
その結果、温度は性能にはほとんど影響を与えず、パラメータの数やGPU容量は決定的な要因であることが示唆された。
関連論文リスト
- Grounded Test-Time Adaptation for LLM Agents [75.62784644919803]
大規模言語モデル(LLM)ベースのエージェントは、新規で複雑な環境への一般化に苦慮している。
環境特化情報を活用することで, LLMエージェントを適応するための2つの戦略を提案する。
論文 参考訳(メタデータ) (2025-11-06T22:24:35Z) - Deep Learning-Enhanced for Amine Emission Monitoring and Performance Analysis in Industrial Carbon Capture Plants [0.6533091401094101]
本研究では, 燃焼後炭素捕獲システムにおいて, アミン排出量の予測とモニタリングのためのデータ駆動深層学習モデルと, 主要な性能パラメータについて述べる。
放射予測のために、2-アミノ-2-メチル-1-プロパノール(AMP)とピペラジンの放射をFTIRおよびIMR-MS法で測定するモデルが設計された。
これらのモデルは99%を超える高い予測精度を達成し、安定した傾向と急激な変動の両方を効果的に追跡した。
論文 参考訳(メタデータ) (2025-09-05T16:57:54Z) - Optimizing Temperature for Language Models with Multi-Sample Inference [47.14991144052361]
本稿では,異なる大言語モデルに対する(近傍)最適温度の自動同定という課題に対処する。
モデルアーキテクチャ、データセット、タスクタイプ、モデルサイズ、予測精度の変動を考慮して、性能最適化における温度の役割を総合的に分析する。
本稿では,温度自動最適化のためのエントロピーに基づく新しい計量法を提案する。
論文 参考訳(メタデータ) (2025-02-07T19:35:25Z) - Enhancing Large Language Model Performance with Gradient-Based Parameter Selection [32.88329156118533]
Gradient-Mask Tuning (GMT) は、勾配情報に基づいてトレーニング中のパラメータを選択的に更新する手法である。
実験により, GMTは従来の微調整法に勝るだけでなく, LLM性能の上限も高めることを示した。
論文 参考訳(メタデータ) (2024-06-21T17:42:52Z) - The Effect of Sampling Temperature on Problem Solving in Large Language Models [0.0]
本研究では,サンプル温度が大規模言語モデル(LLM)の性能に及ぼす影響について検討する。
その結果, 0.0~1.0の温度変化は, LLMの性能に統計的に有意な影響を与えないことが示唆された。
論文 参考訳(メタデータ) (2024-02-07T19:11:23Z) - Dynamically Scaled Temperature in Self-Supervised Contrastive Learning [11.133502139934437]
本稿では,コサインの類似性に依存した温度スケーリング機能を提案することで,自己教師型学習におけるInfoNCE損失の性能向上に着目する。
実験的な証拠は、提案フレームワークが損失ベースのSSLアルゴリズムよりも優れていることを示している。
論文 参考訳(メタデータ) (2023-08-02T13:31:41Z) - Learning IMM Filter Parameters from Measurements using Gradient Descent [45.335821132209766]
トラック下のターゲットの固有のパラメータは、システムがデプロイされるまで完全に観測不可能である。
最先端のセンサーシステムはますます複雑になり、パラメータの数が自然に増加する。
本稿では,対話型多重モデル (IMM) フィルタのパラメータを計測のみで最適化する。
論文 参考訳(メタデータ) (2023-07-13T08:35:40Z) - A Three-regime Model of Network Pruning [47.92525418773768]
我々は、ニューラルネットワーク(NN)トレーニングのハイパーパラメータが刈り取り性能に与える影響をモデル化するために、温度のようなパラメータと負荷のようなパラメータを使用します。
プレプルーニングモデルにおける負荷様パラメータの値に依存すると、プレプルーニングモデルにおける温度様パラメータの値が増加するか、その後のプルーニング性能が向上または損なわれる可能性がある。
本モデルでは, 高温のダイコトモス効果は, ポストプランニングモデルにおいて, 異なるタイプの大域構造間の遷移と関係していることが明らかとなった。
論文 参考訳(メタデータ) (2023-05-28T08:09:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。