論文の概要: Pseudo-Label Refinement for Robust Wheat Head Segmentation via Two-Stage Hybrid Training
- arxiv url: http://arxiv.org/abs/2512.11874v1
- Date: Sun, 07 Dec 2025 02:48:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:55.982397
- Title: Pseudo-Label Refinement for Robust Wheat Head Segmentation via Two-Stage Hybrid Training
- Title(参考訳): 2段階ハイブリッドトレーニングによるロバスト小麦頭部切片の擬似ラベルリファインメント
- Authors: Jiahao Jiang, Zhangrui Yang, Xuanhan Wang, Jingkuan Song,
- Abstract要約: 我々はグローバル小麦フルセマンティックコンペティションのための体系的な自己学習フレームワークを開発した。
このフレームワークは、2段階のハイブリッドトレーニング戦略と広範なデータ拡張を組み合わせたものだ。
私たちのコアモデルは、MiT-B4(Mix Transformer)バックボーンを備えたSegFormerです。
- 参考スコア(独自算出の注目度): 48.90835550144072
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This extended abstract details our solution for the Global Wheat Full Semantic Segmentation Competition. We developed a systematic self-training framework. This framework combines a two-stage hybrid training strategy with extensive data augmentation. Our core model is SegFormer with a Mix Transformer (MiT-B4) backbone. We employ an iterative teacher-student loop. This loop progressively refines model accuracy. It also maximizes data utilization. Our method achieved competitive performance. This was evident on both the Development and Testing Phase datasets.
- Abstract(参考訳): この拡張された抽象概念は、Global Wheat Full Semantic Segmentation Competitionのソリューションの詳細である。
我々は体系的な自己学習フレームワークを開発した。
このフレームワークは、2段階のハイブリッドトレーニング戦略と広範なデータ拡張を組み合わせたものだ。
私たちのコアモデルは、MiT-B4(Mix Transformer)バックボーンを備えたSegFormerです。
私たちは反復的な教師-学生ループを採用しています。
このループは、モデルの精度を徐々に改善する。
また、データ利用を最大化する。
我々の手法は競争力を発揮した。
これは開発フェーズとテストフェーズの両方のデータセットで明らかでした。
関連論文リスト
- DINOv2-powered Few-Shot Semantic Segmentation: A Unified Framework via Cross-Model Distillation and 4D Correlation Mining [30.564216896513596]
セマンティックセグメンテーションは、その一般化能力によって関心が高まっている。
近年,表現の伝達性向上のための基礎モデルが提案されている。
DINOv2エンコーダと軽量セグメンタのみを備えたFS-DINOを提案する。
論文 参考訳(メタデータ) (2025-04-22T07:47:06Z) - CLIMB: CLustering-based Iterative Data Mixture Bootstrapping for Language Model Pre-training [63.07024608399447]
本稿では,事前学習環境でデータ混合物を発見し,評価し,精製する自動フレームワークを提案する。
ClimbLabは、20のクラスタを研究用グラウンドとして、フィルタされた1.2トリリオントーケンコーパスであり、ClimbMixはコンパクトだが強力な400ビリオントーケンデータセットである。
論文 参考訳(メタデータ) (2025-04-17T17:58:13Z) - APIGen-MT: Agentic Pipeline for Multi-Turn Data Generation via Simulated Agent-Human Interplay [86.01901238059261]
APIGen-MTは検証可能で多様なマルチターンエージェントデータを生成するフレームワークである。
xLAM-2-fc-r 級数で 1B から 70B のパラメータを持つモデル群を訓練する。
我々のモデルは、$tau$-benchとBFCLベンチマークでGPT-4oやClaude 3.5のようなフロンティアモデルより優れている。
論文 参考訳(メタデータ) (2025-04-04T17:13:57Z) - Tailoring Mixup to Data for Calibration [12.050401897136501]
混在するデータ間の距離によって、ラベルを間違ったラベルに割り当てる確率が増加することを示す。
本研究では, 混合する試料間の類似度に応じて, 係数の基底分布を動的に変化させることを提案する。
論文 参考訳(メタデータ) (2023-11-02T17:48:28Z) - On-the-Fly Guidance Training for Medical Image Registration [14.309599960641242]
本研究は,既存の学習ベース画像登録モデルを改善するための新しいトレーニングフレームワークであるOn-the-Fly Guidance(OFG)を紹介する。
本手法では,ラベル付きデータを必要としない登録モデルをトレーニングするための教師付き手法を提案する。
提案手法は,複数のベンチマークデータセットおよび先行モデルでテストされ,性能が大幅に向上した。
論文 参考訳(メタデータ) (2023-08-29T11:12:53Z) - CoMAE: Single Model Hybrid Pre-training on Small-Scale RGB-D Datasets [50.6643933702394]
本稿では,RGBと深度変調のための単一モデル自己教師型ハイブリッド事前学習フレームワークについて述べる。
我々のCoMAEは、コントラスト学習とマスク画像モデリングという2つの一般的な自己教師付き表現学習アルゴリズムを統合するためのカリキュラム学習戦略を提示している。
論文 参考訳(メタデータ) (2023-02-13T07:09:45Z) - Mixup-Transformer: Dynamic Data Augmentation for NLP Tasks [75.69896269357005]
Mixupは、入力例と対応するラベルを線形に補間する最新のデータ拡張技術である。
本稿では,自然言語処理タスクにmixupを適用する方法について検討する。
我々は、様々なNLPタスクに対して、mixup-transformerと呼ばれる、トランスフォーマーベースの事前学習アーキテクチャにmixupを組み込んだ。
論文 参考訳(メタデータ) (2020-10-05T23:37:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。