論文の概要: Domain Adaptable Fine-Tune Distillation Framework For Advancing Farm
Surveillance
- arxiv url: http://arxiv.org/abs/2402.07059v1
- Date: Sat, 10 Feb 2024 22:20:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-13 17:42:11.952803
- Title: Domain Adaptable Fine-Tune Distillation Framework For Advancing Farm
Surveillance
- Title(参考訳): ドメイン適応型微調整蒸留フレームワークによる農業監視の促進
- Authors: Raza Imam, Muhammad Huzaifa, Nabil Mansour, Shaher Bano Mirza, Fouad
Lamghari
- Abstract要約: 我々は,Unified Auto- framework と Fine-Tune Distillation framework を紹介する。
Unified Auto-アプローチは、GroundingDINOとSegment-Anything-Modelの2つのモデルを組み合わせている。
Fine-Tune Distillationフレームワークは、自動注釈付きデータセットを使用して学生モデルの微調整を行う。
- 参考スコア(独自算出の注目度): 0.5749787074942511
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this study, we propose an automated framework for camel farm monitoring,
introducing two key contributions: the Unified Auto-Annotation framework and
the Fine-Tune Distillation framework. The Unified Auto-Annotation approach
combines two models, GroundingDINO (GD), and Segment-Anything-Model (SAM), to
automatically annotate raw datasets extracted from surveillance videos.
Building upon this foundation, the Fine-Tune Distillation framework conducts
fine-tuning of student models using the auto-annotated dataset. This process
involves transferring knowledge from a large teacher model to a student model,
resembling a variant of Knowledge Distillation. The Fine-Tune Distillation
framework aims to be adaptable to specific use cases, enabling the transfer of
knowledge from the large models to the small models, making it suitable for
domain-specific applications. By leveraging our raw dataset collected from
Al-Marmoom Camel Farm in Dubai, UAE, and a pre-trained teacher model,
GroundingDINO, the Fine-Tune Distillation framework produces a lightweight
deployable model, YOLOv8. This framework demonstrates high performance and
computational efficiency, facilitating efficient real-time object detection.
Our code is available at
\href{https://github.com/Razaimam45/Fine-Tune-Distillation}{https://github.com/Razaimam45/Fine-Tune-Distillation}
- Abstract(参考訳): 本研究では,ラクダ群集モニタリングのための自動フレームワークを提案し,統一型自動アノテーションフレームワークとファインチューン蒸留フレームワークの2つの重要な貢献点を紹介した。
Unified Auto-Annotationアプローチは、GD(GoldingDINO)とSAM(Segment-Anything-Model)という2つのモデルを組み合わせて、監視ビデオから抽出された生のデータセットを自動的にアノテートする。
この基礎に基づいて、微調整蒸留フレームワークは、自動注釈データセットを使用して学生モデルの微調整を行う。
このプロセスは、大きな教師モデルから学生モデルに知識を移し、知識蒸留の変種に似ている。
Fine-Tune Distillationフレームワークは特定のユースケースに適応することを目的としており、大きなモデルから小さなモデルへの知識の伝達を可能にし、ドメイン固有のアプリケーションに適している。
UAEのドバイにあるAl-Marmoom Camel Farmから収集した生のデータセットと、事前訓練された教師モデルであるGroundingDinoを利用して、ファインチューン蒸留フレームワークは、軽量なデプロイ可能なモデルYOLOv8を生成する。
このフレームワークは高い性能と計算効率を示し、効率的なリアルタイムオブジェクト検出を容易にする。
我々のコードは \href{https://github.com/Razaimam45/Fine-Tune-Distillation}{https://github.com/Razaimam45/Fine-Tune-Distillation} で入手できる。
関連論文リスト
- UIFormer: A Unified Transformer-based Framework for Incremental Few-Shot Object Detection and Instance Segmentation [38.331860053615955]
本稿では,Transformerアーキテクチャを用いたインクリメンタルな小ショットオブジェクト検出(iFSOD)とインスタンスセグメンテーション(iFSIS)のための新しいフレームワークを提案する。
私たちのゴールは、新しいオブジェクトクラスのいくつかの例しか利用できない状況に対して最適なソリューションを作ることです。
論文 参考訳(メタデータ) (2024-11-13T12:29:44Z) - Feature Interaction Fusion Self-Distillation Network For CTR Prediction [14.12775753361368]
CTR(Click-Through Rate)予測は、レコメンデーターシステム、オンライン広告、検索エンジンにおいて重要な役割を果たす。
プラグ・アンド・プレイ融合自己蒸留モジュールを組み込んだCTR予測フレームワークであるFSDNetを提案する。
論文 参考訳(メタデータ) (2024-11-12T03:05:03Z) - An Integrated Data Processing Framework for Pretraining Foundation Models [57.47845148721817]
研究者や実践者は、しばしば異なるソースからデータセットを手動でキュレートする必要がある。
本稿では,処理モジュールと解析モジュールを統合したデータ処理フレームワークを提案する。
提案されたフレームワークは使いやすく、柔軟です。
論文 参考訳(メタデータ) (2024-02-26T07:22:51Z) - Lightweight Self-Knowledge Distillation with Multi-source Information
Fusion [3.107478665474057]
知識蒸留(KD)は、ニューラルネットワークモデル間で知識を伝達する強力な技術である。
マルチソース情報を利用してより情報のある教師を構築する軽量なSKDフレームワークを提案する。
提案するDRG, DSR, およびそれらの組み合わせの性能を, 各種データセットおよびモデルに関する総合的な実験により検証する。
論文 参考訳(メタデータ) (2023-05-16T05:46:31Z) - Generic-to-Specific Distillation of Masked Autoencoders [119.21281960831651]
マスク付きオートエンコーダによって事前訓練された大型モデルの監督下で, 小型ViTモデルのポテンシャルを活かすため, 汎用型蒸留法(G2SD)を提案する。
G2SDでは、バニラViT-Smallモデルは98.7%、98.1%、99.3%のパフォーマンスを画像分類、オブジェクト検出、セマンティックセグメンテーションのために達成している。
論文 参考訳(メタデータ) (2023-02-28T17:13:14Z) - EmbedDistill: A Geometric Knowledge Distillation for Information
Retrieval [83.79667141681418]
大規模なニューラルモデル(トランスフォーマーなど)は、情報検索(IR)のための最先端のパフォーマンスを達成する
本研究では,大規模教師モデルで学習したクエリとドキュメント間の相対的幾何を利用した新しい蒸留手法を提案する。
提案手法は, 両エンコーダ (DE) とクロスエンコーダ (CE) の2種類の教師モデルから, 95~97%の教師性能を維持できる1/10の非対称な学生への蒸留に成功した。
論文 参考訳(メタデータ) (2023-01-27T22:04:37Z) - Distilling Knowledge from Self-Supervised Teacher by Embedding Graph
Alignment [52.704331909850026]
我々は、自己指導型事前学習モデルから他の学生ネットワークへ知識を伝達するための新しい知識蒸留フレームワークを定式化した。
自己教師型学習におけるインスタンス識別の精神に触発され,特徴埋め込み空間におけるグラフ定式化によるインスタンスとインスタンスの関係をモデル化する。
蒸留方式は, 学生ネットワーク上での表現学習を促進するために, 自己指導型知識の伝達に柔軟に適用できる。
論文 参考訳(メタデータ) (2022-11-23T19:27:48Z) - Assemble Foundation Models for Automatic Code Summarization [9.53949558569201]
ニューラルネットワークに基づく自動コード要約のためのフレキシブルでロバストなアプローチを提案する。
CodeBERT や GPT-2 のような利用可能な基盤モデルを AdaMo という単一のモデルに組み立てる。
本稿では,知識伝達の観点から,連続事前学習と中間微調整という2つの適応型スキームを導入する。
論文 参考訳(メタデータ) (2022-01-13T21:38:33Z) - Weakly Supervised Semantic Segmentation via Alternative Self-Dual
Teaching [82.71578668091914]
本稿では,分類とマスク・リファインメント・コンポーネントを統合された深層モデルに組み込む,コンパクトな学習フレームワークを確立する。
本稿では,高品質な知識相互作用を促進するために,新たな自己双対学習(ASDT)機構を提案する。
論文 参考訳(メタデータ) (2021-12-17T11:56:56Z) - Improving Label Quality by Jointly Modeling Items and Annotators [68.8204255655161]
雑音アノテータから基底真理ラベルを学習するための完全ベイズ的枠組みを提案する。
我々のフレームワークは、ラベル分布上の生成的ベイズソフトクラスタリングモデルを古典的なDavidとSkeneのジョイントアノテータデータモデルに分解することでスケーラビリティを保証する。
論文 参考訳(メタデータ) (2021-06-20T02:15:20Z) - Self-Feature Regularization: Self-Feature Distillation Without Teacher
Models [0.0]
浅層層における機能学習を監督するために深層の特徴を用いるセルフフィーチャー正規化(sfr)を提案する。
まず,局所的な特徴にマッチする一般化l2損失と,チャネル次元においてより集中的に蒸留する多対一の手法を用いる。
論文 参考訳(メタデータ) (2021-03-12T15:29:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。