論文の概要: TOM: An Open-Source Tongue Segmentation Method with Multi-Teacher Distillation and Task-Specific Data Augmentation
- arxiv url: http://arxiv.org/abs/2508.14932v1
- Date: Tue, 19 Aug 2025 19:21:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.029849
- Title: TOM: An Open-Source Tongue Segmentation Method with Multi-Teacher Distillation and Task-Specific Data Augmentation
- Title(参考訳): TOM:マルチテラー蒸留とタスク特化データ拡張によるオープンソーストングセグメンテーション手法
- Authors: Jiacheng Xie, Ziyang Zhang, Biplab Poudel, Congyu Guo, Yang Yu, Guanghui An, Xiaoting Tang, Lening Zhao, Chunhui Xu, Dong Xu,
- Abstract要約: 舌画像は、特に中国伝統医学(TCM)において、貴重な診断ツールとして機能する。
本稿では,多教師の知識蒸留に基づく舌画像分割モデル(TOM)を提案する。
私たちの知る限り、これはオープンソースかつ無償で利用可能な舌画像分割ツールとしては初めてのものです。
- 参考スコア(独自算出の注目度): 20.800619262512
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tongue imaging serves as a valuable diagnostic tool, particularly in Traditional Chinese Medicine (TCM). The quality of tongue surface segmentation significantly affects the accuracy of tongue image classification and subsequent diagnosis in intelligent tongue diagnosis systems. However, existing research on tongue image segmentation faces notable limitations, and there is a lack of robust and user-friendly segmentation tools. This paper proposes a tongue image segmentation model (TOM) based on multi-teacher knowledge distillation. By incorporating a novel diffusion-based data augmentation method, we enhanced the generalization ability of the segmentation model while reducing its parameter size. Notably, after reducing the parameter count by 96.6% compared to the teacher models, the student model still achieves an impressive segmentation performance of 95.22% mIoU. Furthermore, we packaged and deployed the trained model as both an online and offline segmentation tool (available at https://itongue.cn/), allowing TCM practitioners and researchers to use it without any programming experience. We also present a case study on TCM constitution classification using segmented tongue patches. Experimental results demonstrate that training with tongue patches yields higher classification performance and better interpretability than original tongue images. To our knowledge, this is the first open-source and freely available tongue image segmentation tool.
- Abstract(参考訳): 舌画像は、特に伝統的な中国医学(TCM)において、貴重な診断ツールとして機能する。
舌表面のセグメンテーションの質は、インテリジェントな舌診断システムにおける舌画像分類とその後の診断の精度に大きく影響する。
しかし、既存の舌画像のセグメンテーションの研究は、顕著な限界に直面しており、堅牢でユーザフレンドリーなセグメンテーションツールが欠如している。
本稿では,多教師の知識蒸留に基づく舌画像分割モデル(TOM)を提案する。
拡散に基づく新しいデータ拡張手法を取り入れることで,パラメータサイズを小さくしながらセグメンテーションモデルの一般化能力を高めた。
特に、教師モデルと比較してパラメータ数を96.6%削減した後も、学生モデルは95.22% mIoUの印象的なセグメンテーション性能を達成している。
さらに、トレーニングされたモデルをオンラインおよびオフラインセグメンテーションツール(https://itongue.cn/で利用可能)としてパッケージ化し、デプロイしました。
また, 分割舌パッチを用いたTCM構成分類の事例的検討を行った。
実験により,舌パッチによる訓練により,舌画像よりも高い分類性能と解釈性が得られることが示された。
私たちの知る限り、これはオープンソースかつ無償で利用可能な舌画像分割ツールとしては初めてのものです。
関連論文リスト
- PathSegDiff: Pathology Segmentation using Diffusion model representations [63.20694440934692]
そこで我々は,Latent Diffusion Models (LDMs) を事前学習した特徴抽出器として活用する,病理組織像分割の新しい手法であるPathSegDiffを提案する。
本手法は,H&E染色組織像から多彩な意味情報を抽出するために,自己教師型エンコーダによって誘導される病理特異的LCMを用いる。
本実験は,BCSSおよびGlaSデータセットにおける従来の手法よりも大幅に改善されたことを示す。
論文 参考訳(メタデータ) (2025-04-09T14:58:21Z) - CLEFT: Language-Image Contrastive Learning with Efficient Large Language Model and Prompt Fine-Tuning [4.004641316826348]
効率的な大言語モデルとファインチューニング(CLEFT)を併用した新しい言語画像コントラスト学習手法を提案する。
複数の胸部X線およびマンモグラフィーデータセットの最先端性能を示す。
提案手法は,既存のBERTエンコーダと比較して,トレーニング可能なモデル全体のサイズを39%削減し,トレーニング可能な言語モデルを4%に削減する。
論文 参考訳(メタデータ) (2024-07-30T17:57:32Z) - On the Calibration of Multilingual Question Answering LLMs [57.296161186129545]
複数の多言語大言語モデル(MLLM)のキャリブレーションを様々な質問応答タスクでベンチマークする。
本研究では,分布内,分布外,言語間移動設定におけるキャリブレーションの異なる次元について検討する。
LlaMa2のようなデコーダのみのLLMでは、コンテキスト内学習は多言語データの信頼性校正を改善する。
論文 参考訳(メタデータ) (2023-11-15T03:29:02Z) - Ammonia-Net: A Multi-task Joint Learning Model for Multi-class
Segmentation and Classification in Tooth-marked Tongue Diagnosis [12.095100353695038]
伝統的な中国医学では、舌の歯の跡が気(黄)欠乏症を評価する重要な指標となっている。
これらの問題に対処するため,Ammonia-Net というマルチタスク共同学習モデルを提案する。
アンモニアネットは舌画像のセマンティックセグメンテーションを行い、舌と歯跡を識別する。
論文 参考訳(メタデータ) (2023-10-05T11:28:32Z) - TongueSAM: An Universal Tongue Segmentation Model Based on SAM with
Zero-Shot [8.211898244288305]
舌分節はTCM舌の自動診断の第一段階である。
本稿では SAM (Segment Anything Model) に基づく舌分割モデル TongueSAM を提案する。
論文 参考訳(メタデータ) (2023-08-12T02:38:43Z) - Scaling Laws for Multilingual Neural Machine Translation [45.620062316968976]
モデルサイズの増加がモデル性能に与える影響について検討し,スケーリング行動におけるトレーニング混合物組成の役割について検討した。
学習混合物中の個々の言語ペアの重み付けの変化は,スケーリング法則の乗法的要因にのみ影響することがわかった。
我々は、どんな言語重み付けでも訓練された多言語モデルの性能を予測するために、我々の観測を活用している。
論文 参考訳(メタデータ) (2023-02-19T18:43:24Z) - PCRLv2: A Unified Visual Information Preservation Framework for
Self-supervised Pre-training in Medical Image Analysis [56.63327669853693]
本稿では,ピクセルレベルの情報を高レベルなセマンティクスに明示的にエンコードするための画素復元タスクを提案する。
また,画像理解を支援する強力なツールであるスケール情報の保存についても検討する。
提案されている統合SSLフレームワークは、さまざまなタスクで自己管理されたフレームワークを超越している。
論文 参考訳(メタデータ) (2023-01-02T17:47:27Z) - Unsupervised Domain Adaptation of a Pretrained Cross-Lingual Language
Model [58.27176041092891]
最近の研究は、大規模未ラベルテキストに対する言語間言語モデルの事前学習が、大幅な性能向上をもたらすことを示唆している。
本稿では,絡み合った事前学習した言語間表現からドメイン固有の特徴を自動的に抽出する,教師なし特徴分解手法を提案する。
提案モデルでは、相互情報推定を利用して、言語間モデルによって計算された表現をドメイン不変部分とドメイン固有部分に分解する。
論文 参考訳(メタデータ) (2020-11-23T16:00:42Z) - Gradient Vaccine: Investigating and Improving Multi-task Optimization in
Massively Multilingual Models [63.92643612630657]
本稿では、損失関数幾何学のレンズを通して多言語最適化のブラックボックスを覗き込もうとする。
最適化軌道に沿って測定された勾配類似性は重要な信号であり、言語近接とよく相関している。
そこで我々はGradient Vaccineというシンプルでスケーラブルな最適化手法を考案した。
論文 参考訳(メタデータ) (2020-10-12T17:26:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。