論文の概要: GasTwinFormer: A Hybrid Vision Transformer for Livestock Methane Emission Segmentation and Dietary Classification in Optical Gas Imaging
- arxiv url: http://arxiv.org/abs/2508.15057v1
- Date: Wed, 20 Aug 2025 20:45:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.090878
- Title: GasTwinFormer: A Hybrid Vision Transformer for Livestock Methane Emission Segmentation and Dietary Classification in Optical Gas Imaging
- Title(参考訳): GasTwinFormer: 牛肉メタン排出分別用ハイブリッドビジョントランスと光ガスイメージングにおける食事分類
- Authors: Toqi Tahamid Sarker, Mohamed Embaby, Taminul Islam, Amer AbuGhazaleh, Khaled R Ahmed,
- Abstract要約: GasTwinFormerは、光ガスイメージングにおけるリアルタイムメタン放出セグメンテーションと食餌分類のためのハイブリッドビジョントランスフォーマーである。
OGIを用いた牛肉のメタン排出量の包括的分析を行い,11,694フレームのアノテート処理を行った。
GasTwinFormerは74.47% mIoUと83.63% mF1をセグメンテーションで達成し、3.348Mパラメータ、3.428G FLOP、114.9 FPS推論速度で例外的な効率を維持する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Livestock methane emissions represent 32% of human-caused methane production, making automated monitoring critical for climate mitigation strategies. We introduce GasTwinFormer, a hybrid vision transformer for real-time methane emission segmentation and dietary classification in optical gas imaging through a novel Mix Twin encoder alternating between spatially-reduced global attention and locally-grouped attention mechanisms. Our architecture incorporates a lightweight LR-ASPP decoder for multi-scale feature aggregation and enables simultaneous methane segmentation and dietary classification in a unified framework. We contribute the first comprehensive beef cattle methane emission dataset using OGI, containing 11,694 annotated frames across three dietary treatments. GasTwinFormer achieves 74.47% mIoU and 83.63% mF1 for segmentation while maintaining exceptional efficiency with only 3.348M parameters, 3.428G FLOPs, and 114.9 FPS inference speed. Additionally, our method achieves perfect dietary classification accuracy (100%), demonstrating the effectiveness of leveraging diet-emission correlations. Extensive ablation studies validate each architectural component, establishing GasTwinFormer as a practical solution for real-time livestock emission monitoring. Please see our project page at gastwinformer.github.io.
- Abstract(参考訳): 家畜のメタン排出量は人為的なメタン生産の32%を占めており、自動監視は気候の緩和戦略にとって極めて重要である。
我々は,空間的に再現されたグローバルアテンションと局所的にグループ化されたアテンション機構の交互なミキシングツインエンコーダによる,光ガスイメージングにおけるリアルタイムメタン放出セグメンテーションと食餌分類のためのハイブリッドビジョントランスフォーマーであるGasTwinFormerを紹介した。
本アーキテクチャでは,マルチスケール機能アグリゲーションのための軽量LR-ASPPデコーダを内蔵し,メタンセグメンテーションとダイエットの同時分類を可能にする。
OGIを用いた牛肉のメタン排出量の包括的分析を行い,11,694フレームのアノテート処理を行った。
GasTwinFormerは74.47% mIoUと83.63% mF1をセグメンテーションで達成し、3.348Mパラメータ、3.428G FLOP、114.9 FPS推論速度で例外的な効率を維持する。
さらに, 完全食事分類精度(100%)を達成し, ダイエット・エミッション相関の有効性を示した。
広範囲にわたるアブレーション研究は、各建築要素を検証し、リアルタイムの家畜排ガスモニタリングのための実用的なソリューションとしてガストリンホルダーを確立した。
gastwinformer.github.ioのプロジェクトページをご覧ください。
関連論文リスト
- FUME: Fused Unified Multi-Gas Emission Network for Livestock Rumen Acidosis Detection [3.7515646463759698]
ルミナルアシドーシス(Ruminal acidosis)は、乳牛の代謝障害であり、経済的損失と動物福祉の懸念を引き起こす。
In vitro 条件下でのデュアルガス光学画像からのルメンアシドーシス検出のための最初の深層学習手法であるFUMEを提案する。
本研究は, ガス排出による家畜の健康モニタリングの可能性を確立し, 実用的, インビトロアシドーシス検出システムの実現に向けての道を開くものである。
論文 参考訳(メタデータ) (2026-01-13T04:17:22Z) - PanFoMa: A Lightweight Foundation Model and Benchmark for Pan-Cancer [54.958921946378304]
トランスフォーマーと状態空間モデルの強みを組み合わせた軽量ハイブリッドニューラルネットワークであるPanFoMaを紹介する。
PanFoMaはフロントエンドのローカルコンテキストエンコーダと共有自己認識層から構成され、複雑で秩序に依存しない遺伝子相互作用をキャプチャする。
また,350万以上の高品質な細胞を含む大規模パンキャンサー単細胞ベンチマークPanFoMaBenchを構築した。
論文 参考訳(メタデータ) (2025-12-02T08:31:31Z) - Multi-Representation Attention Framework for Underwater Bioacoustic Denoising and Recognition [0.924965746838578]
生体関連エネルギーのソフトマスクを生成するために、まずスペクトログラムをセグメント化する多段階の注意誘導フレームワークを導入する。
画像とマスクの埋め込みは、中間レベルの融合によって統合され、モデルが正常なスペクトル領域に集中できるようにする。
カナダのセイグネイ・セントローレンス海洋公園研究ステーションの実際の記録を用いて、セグメンテーション駆動の注意と中級核融合が信号の識別を改善することを実証した。
論文 参考訳(メタデータ) (2025-10-29T22:49:15Z) - Lightweight Vision Transformer with Window and Spatial Attention for Food Image Classification [1.1472801896854488]
WMHAM(Window Multi-Head Attention Mechanism)とSAM(Spatial Attention Mechanism)を統合した軽量な食品画像分類アルゴリズムを提案する。
本モデルでは, それぞれ95.24%, 94.33%の精度を達成し, パラメータとFLOPをベースライン法と比較して有意に低減した。
論文 参考訳(メタデータ) (2025-09-23T06:23:50Z) - CarboNeXT and CarboFormer: Dual Semantic Segmentation Architectures for Detecting and Quantifying Carbon Dioxide Emissions Using Optical Gas Imaging [0.0]
二酸化炭素(CO$$)排出は、環境影響と家畜管理を含む様々な産業プロセスの両方の重要な指標である。
我々は,光ガスイメージング(OGI)のためのセマンティックセグメンテーションフレームワークであるCarboNeXTを紹介した。
論文 参考訳(メタデータ) (2025-05-23T18:01:42Z) - Machine Learning for Methane Detection and Quantification from Space -- A survey [49.7996292123687]
メタン (CH_4) は強力な温室効果ガスであり、20年間で二酸化炭素 (CO_2) の86倍の温暖化に寄与する。
この研究は、ショートウェーブ赤外線(SWIR)帯域におけるメタン点源検出センサの既存の情報を拡張する。
従来の機械学習(ML)アプローチと同様に、最先端の技術をレビューする。
論文 参考訳(メタデータ) (2024-08-27T15:03:20Z) - Gasformer: A Transformer-based Architecture for Segmenting Methane Emissions from Livestock in Optical Gas Imaging [0.0]
家畜、特に牛からのメタンの排出は、気候変動に大きく貢献する。
本稿では,家畜からの低流量メタン排出量を検出するためのセマンティックセグメンテーションアーキテクチャであるガスホルマを紹介する。
FLIR GF77 OGIカメラで捉えた2つのユニークなデータセットを示す。
論文 参考訳(メタデータ) (2024-04-16T18:38:23Z) - Unlocking the Potential: Multi-task Deep Learning for Spaceborne Quantitative Monitoring of Fugitive Methane Plumes [0.7970333810038046]
メタン濃度インバージョン(英語版)、プルームセグメンテーション(英語版)、エミッションレート推定(英語版)は、メタン排出モニタリングの3つのサブタスクである。
リモートセンシング画像からメタン排出量の定量モニタリングを行うための,新しいディープラーニングベースのフレームワークを提案する。
メタン濃度インバージョンのためのU-Netネットワーク,メタン配管セグメンテーションのためのMask R-CNNネットワーク,メタン排出率推定のためのResNet-50ネットワークを訓練する。
論文 参考訳(メタデータ) (2024-01-23T16:04:19Z) - Autonomous Detection of Methane Emissions in Multispectral Satellite
Data Using Deep Learning [73.01013149014865]
メタンは最も強力な温室効果ガスの1つである。
現在のメタン放出モニタリング技術は、近似的な放出要因や自己報告に依存している。
深層学習法は、Sentinel-2衛星マルチスペクトルデータにおけるメタン漏れの自動検出に利用することができる。
論文 参考訳(メタデータ) (2023-08-21T19:36:50Z) - Breast Ultrasound Tumor Classification Using a Hybrid Multitask
CNN-Transformer Network [63.845552349914186]
胸部超音波(BUS)画像分類において,グローバルな文脈情報の収集が重要な役割を担っている。
ビジョントランスフォーマーは、グローバルなコンテキスト情報をキャプチャする能力が改善されているが、トークン化操作によって局所的なイメージパターンを歪めてしまう可能性がある。
本研究では,BUS腫瘍分類とセグメンテーションを行うハイブリッドマルチタスクディープニューラルネットワークであるHybrid-MT-ESTANを提案する。
論文 参考訳(メタデータ) (2023-08-04T01:19:32Z) - CageViT: Convolutional Activation Guided Efficient Vision Transformer [90.69578999760206]
本稿では,CageViTと呼ばれる効率的な視覚変換器を提案する。
私たちのCageViTは、現在のTransformersとは違って、新しいエンコーダを使用して、再配置されたトークンを処理する。
実験の結果,提案したCageViTは最新の最先端のバックボーンよりも効率の面で大きな差があることがわかった。
論文 参考訳(メタデータ) (2023-05-17T03:19:18Z) - EATFormer: Improving Vision Transformer Inspired by Evolutionary Algorithm [111.17100512647619]
本稿では、実証された実用的な進化的アルゴリズム(EA)と類似したビジョントランスフォーマーの合理性を説明する。
本稿では,EA ベースのトランス (EAT) ブロックのみを含む新しいピラミッド EATFormer バックボーンを提案する。
画像分類,下流タスク,説明実験に関する大規模かつ定量的な実験は,我々のアプローチの有効性と優位性を示すものである。
論文 参考訳(メタデータ) (2022-06-19T04:49:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。