論文の概要: Managing Household Waste through Transfer Learning
- arxiv url: http://arxiv.org/abs/2402.09437v1
- Date: Sat, 27 Jan 2024 05:24:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-18 13:02:02.121909
- Title: Managing Household Waste through Transfer Learning
- Title(参考訳): 転校学習による家庭の廃棄物管理
- Authors: Suman Kunwar
- Abstract要約: ごみ分類のための移動学習モデルの性能と計算炭素排出量について検討する。
以上の結果から,EfficientNetV2ファミリーは,f1スコア,IoU値が最も精度が高いことが示唆された。
我々は、EfficientNetV2Sが96.41%の精度で最も持続可能で正確なモデルであると結論付けた。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As the world continues to face the challenges of climate change, it is
crucial to consider the environmental impact of the technologies we use. In
this study, we investigate the performance and computational carbon emissions
of various transfer learning models for garbage classification. We examine the
MobileNet, ResNet50, ResNet101, and EfficientNetV2S and EfficientNetV2M models.
Our findings indicate that the EfficientNetV2 family achieves the highest
accuracy, recall, f1-score, and IoU values. However, the EfficientNetV2M model
requires more time and produces higher carbon emissions. ResNet50 outperforms
ResNet110 in terms of accuracy, recall, f1-score, and IoU, but it has a larger
carbon footprint. We conclude that EfficientNetV2S is the most sustainable and
accurate model with 96.41% accuracy. Our research highlights the significance
of considering the ecological impact of machine learning models in garbage
classification.
- Abstract(参考訳): 世界は気候変動の課題に直面しているため、私たちが使っているテクノロジーの環境への影響を考えることが重要です。
本研究では,ガベージ分類のための各種トランスファー学習モデルの性能と計算量について検討する。
我々はMobileNet、ResNet50、ResNet101、EfficientNetV2SおよびEfficientNetV2Mモデルについて検討する。
以上の結果から,EfficientNetV2ファミリーは,f1スコア,IoU値が最も精度が高いことが示唆された。
しかし、効率の良いnetv2mモデルはより多くの時間を必要とし、高い二酸化炭素排出量を生み出す。
ResNet50は精度、リコール、f1スコア、IoUでResNet110より優れているが、炭素フットプリントは大きい。
EfficientNetV2Sは96.41%の精度で最も持続可能で正確なモデルである。
本研究は,ガベージ分類における機械学習モデルの生態的影響を検討することの重要性を強調する。
関連論文リスト
- PV-faultNet: Optimized CNN Architecture to detect defects resulting efficient PV production [0.0]
本研究では,太陽光発電(PV)セルの高効率かつリアルタイムな欠陥検出に最適化された,軽量な畳み込みニューラルネットワーク(CNN)アーキテクチャであるPV-faultNetを提案する。
このモデルにはわずか292万のパラメータが含まれており、精度を犠牲にすることなく処理要求を大幅に削減している。
91%の精度、89%のリコール、90%のF1スコアを達成し、PV生産におけるスケーラブルな品質管理の有効性を実証した。
論文 参考訳(メタデータ) (2024-11-05T10:58:37Z) - Onboard Satellite Image Classification for Earth Observation: A Comparative Study of ViT Models [28.69148416385582]
本研究は,衛星データ処理における土地利用分類において,最も効果的な事前学習モデルを特定することに焦点を当てた。
我々は、従来のCNNベース、ResNetベース、および様々な事前学習された視覚変換器モデルの性能を比較した。
特にMobileViTV2とEfficientViT-M2は,スクラッチからトレーニングしたモデルよりも精度と効率が優れていた。
論文 参考訳(メタデータ) (2024-09-05T20:21:49Z) - Reporting and Analysing the Environmental Impact of Language Models on the Example of Commonsense Question Answering with External Knowledge [7.419725234099729]
チャットGPTは大規模言語モデル(LLM)に社会的な関心を喚起した
LLMは相当な計算資源を必要としており、財政的にも環境的にも訓練に非常に費用がかかる。
本研究では,外部知識でT5 LLMを注入し,質問応答タスクのモデルを微調整した。
論文 参考訳(メタデータ) (2024-07-24T16:16:16Z) - Generative AI for Low-Carbon Artificial Intelligence of Things with Large Language Models [67.0243099823109]
ジェネレーティブAI(GAI)は、AIoT(Artificial Intelligence of Things)の二酸化炭素排出量を減らす大きな可能性を秘めている
本稿では, 炭素排出量削減のためのGAIの可能性について検討し, 低炭素AIoTのための新しいGAI対応ソリューションを提案する。
本稿では,Large Language Model (LLM) を利用したCO_2排出最適化フレームワークを提案し,このフレームワークにより,プラグ可能なLLMとRetrieval Augmented Generation (RAG) モジュールを設計する。
論文 参考訳(メタデータ) (2024-04-28T05:46:28Z) - Achieving Pareto Optimality using Efficient Parameter Reduction for DNNs in Resource-Constrained Edge Environment [1.9055921262476347]
本稿では,既存のDeep Neural Network (DNN) の最適化を提案する。
精度を犠牲にすることなくモデルサイズを縮小し、トレーニング中のメモリ使用量を削減できるXceptionの効率的なパラメータ削減戦略を実装した。
論文 参考訳(メタデータ) (2024-03-14T19:40:58Z) - A Comparative Study of Machine Learning Algorithms for Anomaly Detection
in Industrial Environments: Performance and Environmental Impact [62.997667081978825]
本研究は,環境の持続可能性を考慮した高性能機械学習モデルの要求に応えることを目的としている。
Decision TreesやRandom Forestsといった従来の機械学習アルゴリズムは、堅牢な効率性とパフォーマンスを示している。
しかし, 資源消費の累積増加にもかかわらず, 最適化された構成で優れた結果が得られた。
論文 参考訳(メタデータ) (2023-07-01T15:18:00Z) - A Light-weight Deep Learning Model for Remote Sensing Image
Classification [70.66164876551674]
リモートセンシング画像分類(RSIC)のための高性能で軽量なディープラーニングモデルを提案する。
NWPU-RESISC45ベンチマークで広範な実験を行うことで、提案した教師学生モデルは最先端システムより優れている。
論文 参考訳(メタデータ) (2023-02-25T09:02:01Z) - Counting Carbon: A Survey of Factors Influencing the Emissions of
Machine Learning [77.62876532784759]
機械学習(ML)は、モデルトレーニングプロセス中に計算を実行するためにエネルギーを使用する必要がある。
このエネルギーの生成には、使用量やエネルギー源によって、温室効果ガスの排出という観点からの環境コストが伴う。
本稿では,自然言語処理とコンピュータビジョンにおいて,95のMLモデルの炭素排出量の時間的および異なるタスクに関する調査を行う。
論文 参考訳(メタデータ) (2023-02-16T18:35:00Z) - Carbon Emissions and Large Neural Network Training [19.233899715628073]
我々は最近の大型モデルT5, Meena, GShard, Switch Transformer, GPT-3のエネルギー使用量と炭素フットプリントを算出する。
エネルギー効率とCO2排出量(CO2e)を改善するための次の機会を強調します。
MLの炭素フットプリントを減らすために、エネルギー使用量とCO2eはモデルを評価する上で重要な指標であるべきだと考えています。
論文 参考訳(メタデータ) (2021-04-21T04:44:25Z) - DisCo: Remedy Self-supervised Learning on Lightweight Models with
Distilled Contrastive Learning [94.89221799550593]
SSL(Self-supervised representation Learning)はコミュニティから広く注目を集めている。
最近の研究では、モデルサイズが小さくなれば、その性能は低下すると主張している。
単純かつ効果的な蒸留コントラスト学習(DisCo)を提案し、問題を大きなマージンで緩和します。
論文 参考訳(メタデータ) (2021-04-19T08:22:52Z) - EfficientNetV2: Smaller Models and Faster Training [91.77432224225221]
本稿では,従来のモデルよりも高速な学習速度とパラメータ効率を有する畳み込みネットワークであるEfficientNetV2を紹介する。
トレーニング対応のニューラルネットワークアーキテクチャ検索とスケーリングを組み合わせて、トレーニング速度とパラメータ効率を共同で最適化します。
実験の結果,EfficientNetV2モデルは最先端モデルよりも最大6.8倍の速度でトレーニングできることがわかった。
論文 参考訳(メタデータ) (2021-04-01T07:08:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。