論文の概要: Evaluating the Energy Efficiency of Few-Shot Learning for Object
Detection in Industrial Settings
- arxiv url: http://arxiv.org/abs/2403.06631v1
- Date: Mon, 11 Mar 2024 11:41:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-12 19:24:54.617894
- Title: Evaluating the Energy Efficiency of Few-Shot Learning for Object
Detection in Industrial Settings
- Title(参考訳): 産業環境における物体検出のためのマイナショット学習のエネルギー効率評価
- Authors: Georgios Tsoumplekas, Vladislav Li, Ilias Siniosoglou, Vasileios
Argyriou, Sotirios K. Goudos, Ioannis D. Moscholios, Panagiotis
Radoglou-Grammatikis, Panagiotis Sarigiannidis
- Abstract要約: 本稿では、下流タスクに標準オブジェクト検出モデルを適用するための微調整手法を提案する。
開発モデルにおけるエネルギー需要のケーススタディと評価について述べる。
最後に、このトレードオフを、カスタマイズされた効率係数測定によって定量化する新しい方法を紹介する。
- 参考スコア(独自算出の注目度): 6.611985866622974
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the ever-evolving era of Artificial Intelligence (AI), model performance
has constituted a key metric driving innovation, leading to an exponential
growth in model size and complexity. However, sustainability and energy
efficiency have been critical requirements during deployment in contemporary
industrial settings, necessitating the use of data-efficient approaches such as
few-shot learning. In this paper, to alleviate the burden of lengthy model
training and minimize energy consumption, a finetuning approach to adapt
standard object detection models to downstream tasks is examined. Subsequently,
a thorough case study and evaluation of the energy demands of the developed
models, applied in object detection benchmark datasets from volatile industrial
environments is presented. Specifically, different finetuning strategies as
well as utilization of ancillary evaluation data during training are examined,
and the trade-off between performance and efficiency is highlighted in this
low-data regime. Finally, this paper introduces a novel way to quantify this
trade-off through a customized Efficiency Factor metric.
- Abstract(参考訳): 進化を続ける人工知能(ai)の時代において、モデルのパフォーマンスはイノベーションを駆動する重要な指標となり、モデルのサイズと複雑さが指数関数的に向上した。
しかし、サステナビリティとエネルギー効率は、現代の産業環境での展開において重要な要件であり、少数ショット学習のようなデータ効率のアプローチを使う必要がある。
本稿では,長期モデルトレーニングの負担を軽減し,エネルギー消費を最小限に抑えるために,標準物体検出モデルを下流タスクに適応させるための微調整手法について検討する。
次に, 揮発性産業環境からの物体検出ベンチマークデータセットに適用した, 開発モデルのエネルギー需要の徹底したケーススタディと評価を行った。
具体的には, 異なる微調整戦略と, 訓練中の補助評価データの利用について検討し, この低データ体制において, 性能と効率のトレードオフを強調した。
最後に、このトレードオフを、カスタマイズされた効率係数測定によって定量化する新しい方法を紹介する。
関連論文リスト
- Data Quality Aware Approaches for Addressing Model Drift of Semantic
Segmentation Models [1.6385815610837167]
本研究では,戦闘モデルドリフトに対する2つの顕著な品質意識戦略について検討した。
前者は画像品質評価の指標を活用して、厳密に高品質なトレーニングデータを選択し、モデルの堅牢性を向上させる。
後者は、既存のモデルから学んだベクトル機能を利用して、将来のデータの選択をガイドし、モデルの以前の知識と整合させる。
論文 参考訳(メタデータ) (2024-02-11T18:01:52Z) - Data-efficient Large Vision Models through Sequential Autoregression [58.26179273091461]
限られたデータセットに基づいて,効率的な自己回帰に基づく視覚モデルを構築する。
このモデルは,高レベル・低レベルのセマンティック理解の両方にまたがる視覚的タスクにおいて,その習熟度をいかに達成するかを実証する。
我々の経験的評価は、モデルが様々なタスクに適応する際の機敏さを強調し、パラメータフットプリントの大幅な削減を図った。
論文 参考訳(メタデータ) (2024-02-07T13:41:53Z) - EsaCL: Efficient Continual Learning of Sparse Models [10.227171407348326]
連続的な学習設定の主な課題は、以前に学習したタスクを実行する方法を忘れずに、タスクのシーケンスを効率的に学習することである。
本研究では,モデルの予測力に悪影響を及ぼすことなく,冗長なパラメータを自動生成する,スパースモデル(EsaCL)の効率的な連続学習法を提案する。
論文 参考訳(メタデータ) (2024-01-11T04:59:44Z) - QualEval: Qualitative Evaluation for Model Improvement [86.29905469151566]
モデル改善のための手段として,自動定性評価による定量的スカラー指標を付加するQualEvalを提案する。
QualEvalは強力なLCM推論器と新しいフレキシブルリニアプログラミングソルバを使用して、人間の読みやすい洞察を生成する。
例えば、その洞察を活用することで、Llama 2モデルの絶対性能が最大15%向上することを示す。
論文 参考訳(メタデータ) (2023-11-06T00:21:44Z) - Learning Objective-Specific Active Learning Strategies with Attentive
Neural Processes [72.75421975804132]
学び アクティブラーニング(LAL)は、アクティブラーニング戦略自体を学ぶことを提案し、与えられた設定に適応できるようにする。
能動学習問題の対称性と独立性を利用した新しい分類法を提案する。
私たちのアプローチは、筋電図から学ぶことに基づいており、モデルに標準ではない目的に適応する能力を与えます。
論文 参考訳(メタデータ) (2023-09-11T14:16:37Z) - Uncovering the Hidden Cost of Model Compression [49.937417635812025]
視覚プロンプティング (VP) はコンピュータビジョンにおいて重要な伝達学習手法として登場した。
モデル間隔は視覚的プロンプトベース転送の性能に悪影響を及ぼす。
以上の結果から,疎度が下流視覚刺激モデルの校正に及ぼす影響が示唆された。
論文 参考訳(メタデータ) (2023-08-29T01:47:49Z) - Towards Sustainable Deep Learning for Multi-Label Classification on NILM [0.5809784853115825]
非侵入負荷監視(Non-Inrusive Load Monitoring、NILM)は、単一計測点からアプライアンスレベルのデータを取得するプロセスである。
本稿では,NILMのマルチラベル分類を改良した新しいDLモデルを提案する。
最先端モデルと比較して、提案モデルではカーボンフットプリントを23%以上削減し、平均8ポイントの性能向上を実現している。
論文 参考訳(メタデータ) (2023-07-18T13:23:23Z) - Using Explanations to Guide Models [68.64377323216817]
モデルガイダンスは、時にはモデルパフォーマンスも改善できることを示す。
本研究では,物体の特徴に着目したモデルの有効性を示す新しいエネルギー損失を提案する。
また、バウンディングボックスアノテーションのわずかな部分でも、これらのゲインが達成可能であることも示しています。
論文 参考訳(メタデータ) (2023-03-21T15:34:50Z) - Energy Efficiency of Training Neural Network Architectures: An Empirical
Study [11.325530936177493]
ディープラーニングモデルの評価は、伝統的に精度、F1スコア、関連する指標などの基準に焦点を当ててきた。
このようなモデルを訓練するために必要な計算は、大きな炭素フットプリントを必要とする。
本研究では, DLモデルアーキテクチャと環境影響との関係を, エネルギー消費の観点から検討した。
論文 参考訳(メタデータ) (2023-02-02T09:20:54Z) - Goal-Aware Prediction: Learning to Model What Matters [105.43098326577434]
学習した前進力学モデルを使用する際の根本的な課題の1つは、学習したモデルの目的と下流のプランナーやポリシーの目標とのミスマッチである。
本稿では,タスク関連情報への直接的予測を提案し,そのモデルが現在のタスクを認識し,状態空間の関連量のみをモデル化することを奨励する。
提案手法は,目標条件付きシーンの関連部分を効果的にモデル化し,その結果,標準タスク非依存のダイナミックスモデルやモデルレス強化学習より優れていることがわかった。
論文 参考訳(メタデータ) (2020-07-14T16:42:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。