論文の概要: Prefer-DAS: Learning from Local Preferences and Sparse Prompts for Domain Adaptive Segmentation of Electron Microscopy
- arxiv url: http://arxiv.org/abs/2602.19423v1
- Date: Mon, 23 Feb 2026 01:39:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.637868
- Title: Prefer-DAS: Learning from Local Preferences and Sparse Prompts for Domain Adaptive Segmentation of Electron Microscopy
- Title(参考訳): Prefer-DAS:電子顕微鏡の領域適応セグメンテーションのための局所的選好とスパースプロンプトからの学習
- Authors: Jiabao Chen, Shan Xiong, Jialin Peng,
- Abstract要約: Prefer-DASは、自己学習と即席指導によるコントラスト学習を統合した、プロンプト可能なマルチタスクモデルである。
そこで我々は,空間的に異なる人間のフィードバックやスパースフィードバックに適合するプラグアンドプレイソリューションであるLocal Direct Preference Optimization (LPO)とスパースLPOを導入する。
我々のモデルは、ポイントと人間の嗜好の可用性に応じて、弱教師付きDASと非教師付きDASの両方を効果的に実行することができる。
- 参考スコア(独自算出の注目度): 0.786519149320184
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Domain adaptive segmentation (DAS) is a promising paradigm for delineating intracellular structures from various large-scale electron microscopy (EM) without incurring extensive annotated data in each domain. However, the prevalent unsupervised domain adaptation (UDA) strategies often demonstrate limited and biased performance, which hinders their practical applications. In this study, we explore sparse points and local human preferences as weak labels in the target domain, thereby presenting a more realistic yet annotation-efficient setting. Specifically, we develop Prefer-DAS, which pioneers sparse promptable learning and local preference alignment. The Prefer-DAS is a promptable multitask model that integrates self-training and prompt-guided contrastive learning. Unlike SAM-like methods, the Prefer-DAS allows for the use of full, partial, and even no point prompts during both training and inference stages and thus enables interactive segmentation. Instead of using image-level human preference alignment for segmentation, we introduce Local direct Preference Optimization (LPO) and sparse LPO (SLPO), plug-and-play solutions for alignment with spatially varying human feedback or sparse feedback. To address potential missing feedback, we also introduce Unsupervised Preference Optimization (UPO), which leverages self-learned preferences. As a result, the Prefer-DAS model can effectively perform both weakly-supervised and unsupervised DAS, depending on the availability of points and human preferences. Comprehensive experiments on four challenging DAS tasks demonstrate that our model outperforms SAM-like methods as well as unsupervised and weakly-supervised DAS methods in both automatic and interactive segmentation modes, highlighting strong generalizability and flexibility. Additionally, the performance of our model is very close to or even exceeds that of supervised models.
- Abstract(参考訳): ドメイン適応セグメンテーション(ドメイン適応セグメンテーション、Domain Adaptive segmentation、DAS)は、様々な大規模電子顕微鏡(EM)から細胞内構造を記述し、各領域に広範囲のアノテートデータを引き出すことなく記述するための有望なパラダイムである。
しかし、一般的でないドメイン適応(UDA)戦略は、しばしば制限された偏りのある性能を示し、実際的な応用を妨げる。
本研究では,対象ドメインの弱いラベルとして,スパースポイントと局所的人間の嗜好を探索し,より現実的でアノテーション効率の良い設定を提示する。
具体的には、素早い学習と局所的な嗜好アライメントの先駆者であるPrefer-DASを開発する。
Prefer-DASは、自己学習と即席指導によるコントラスト学習を統合した、プロンプト可能なマルチタスクモデルである。
SAMライクなメソッドとは異なり、Prefer-DASはトレーニングと推論の両方の段階で完全、部分的、さらにはポイントプロンプトも使用でき、インタラクティブなセグメンテーションを可能にする。
画像レベルの人間の嗜好アライメントをセグメンテーションに使用する代わりに、空間的に変化する人間のフィードバックやスパースフィードバックとアライメントするためのプラグアンドプレイソリューションであるLocal Direct Preference Optimization(LPO)とsparse LPO(SLPO)を導入する。
また、潜在的に欠落したフィードバックに対処するために、自己学習した選好を活用するUnsupervised Preference Optimization (UPO)を導入する。
その結果、Prefer-DASモデルは、ポイントの可用性や人間の好みに応じて、弱い教師付きDASと教師なしDASの両方を効果的に実行することができる。
4つの挑戦的DASタスクに関する総合的な実験により、我々のモデルはSAMライクな手法と、教師なしおよび弱教師なしのDAS手法を、自動的および対話的セグメンテーションモードの両方で上回っており、強力な一般化性と柔軟性を強調している。
さらに、我々のモデルの性能は教師付きモデルに非常に近いか、それ以上である。
関連論文リスト
- A Novel Self-Evolution Framework for Large Language Models [18.62332474172811]
本稿では,ユーザの嗜好適応とドメイン固有能力を協調的に最適化する新しいDual-Phase Self-Evolutionフレームワークを提案する。
一般的なNLPベンチマークと長期対話タスクによる実験は、DPSEが常にSupervised Fine-Tuning、Preference Optimization、Memory-Augmented baselinesより優れていることを示している。
論文 参考訳(メタデータ) (2025-07-21T06:30:39Z) - Multi-Preference Lambda-weighted Listwise DPO for Small-Scale Model Alignment [5.276657230880984]
大規模言語モデル(LLM)は、幅広い言語タスクに対して強力な一般化を示すが、しばしば人間の好みに反する出力を生成する。
直接最適化選好(DPO)は、二項選好対に対する分類タスクとしてアライメントを扱い、プロセスを単純化する。
我々は、より詳細な人間のフィードバックからモデルを学習できるマルチパラメータLambda-weighted Listwise DPOを提案する。
本手法は, 実世界の展開に適した効率, 制御可能, きめ細かな適応を実現しつつ, 標準DPOのアライメント性能を常に向上させる。
論文 参考訳(メタデータ) (2025-06-24T16:47:17Z) - Few-shot Steerable Alignment: Adapting Rewards and LLM Policies with Neural Processes [50.544186914115045]
大きな言語モデル(LLM)は、日々のアプリケーションにますます組み込まれています。
個人ユーザの多様な嗜好との整合性を確保することは、重要な課題となっている。
数発のステアライメントのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-18T16:14:59Z) - Self-supervised Preference Optimization: Enhance Your Language Model with Preference Degree Awareness [27.43137305486112]
本稿では,自己監督的選好度損失とアライメント損失を組み合わせた自己監督的選好度損失を構成する,新しい自己監督的選好最適化(SPO)フレームワークを提案する。
その結果,SPOを既存の好み最適化手法とシームレスに統合し,最先端性能を実現することができた。
論文 参考訳(メタデータ) (2024-09-26T12:37:26Z) - Self-Augmented Preference Optimization: Off-Policy Paradigms for Language Model Alignment [104.18002641195442]
既存のペアデータを必要としない、効果的でスケーラブルなトレーニングパラダイムである自己拡張型優先度最適化(SAPO)を導入する。
負の反応を自律的に生成するセルフプレイの概念に基づいて、我々はさらに、データ探索とエクスプロイトを強化するために、非政治的な学習パイプラインを組み込む。
論文 参考訳(メタデータ) (2024-05-31T14:21:04Z) - Self-Exploring Language Models: Active Preference Elicitation for Online Alignment [88.56809269990625]
本研究では, 分布域外領域を積極的に探索するために, 潜在的に高次応答に対して楽観的に偏りを呈する2段階的客観性を提案する。
実験の結果,Zephyr-7B-SFTとLlama-3-8B-Instructモデルで微調整した場合,SELM(Self-Exploring Language Models)は命令追従ベンチマークの性能を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2024-05-29T17:59:07Z) - Semi-supervised Domain Adaptive Structure Learning [72.01544419893628]
半教師付きドメイン適応 (SSDA) は,1) アノテーションの低いデータに過度に適合する手法と,2) ドメイン間の分散シフトの両方を克服しなければならない課題である。
SSLとDAの協調を正規化するための適応型構造学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-12T06:11:16Z) - Unsupervised Domain Adaptation for Spatio-Temporal Action Localization [69.12982544509427]
S時間動作の局所化はコンピュータビジョンにおいて重要な問題である。
本稿では、エンドツーエンドの教師なしドメイン適応アルゴリズムを提案する。
空間的特徴と時間的特徴を別々にあるいは共同的に適応した場合に,顕著な性能向上が達成できることを示す。
論文 参考訳(メタデータ) (2020-10-19T04:25:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。