論文の概要: Tag-Evol: Achieving Efficient Instruction Evolving via Tag Injection
- arxiv url: http://arxiv.org/abs/2505.24165v1
- Date: Fri, 30 May 2025 03:14:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:52.747571
- Title: Tag-Evol: Achieving Efficient Instruction Evolving via Tag Injection
- Title(参考訳): Tag-Evol: タグ注入による効率的なインストラクションの実現
- Authors: Yixuan Wang, Shiqi Zhou, Chuanzhe Guo, Qingfu Zhu,
- Abstract要約: より多様で効率的な命令進化法であるTag-Evolフレームワークを提案する。
特にTag-Evolは、制御された進化を達成するための戦略として、多種多様な特定の知識タグを使用している。
多様な領域ベンチマークにおいて,複数のバックボーンを用いた実験により,提案手法が他の手法よりも大幅に進化したデータを生成することを示した。
- 参考スコア(独自算出の注目度): 10.121053770426757
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Evol-Instruct has made significant improvements as a data synthesis method in several areas. Existing methods typically rely on a fixed set of strategies to evolve, which require manual design and are monolithic in form. In addition, iterative evolution also makes the acquisition of hard samples expensive. In view of this, we propose the Tag-Evol framework, a more diverse and efficient instruction evolving method. Specifically, Tag-Evol uses diverse and specific knowledge tags as strategies to achieve controlled evolution by injecting different combinations of tags into the original instructions. Experiments with multiple backbones in diverse domain benchmarks show that the proposed method generates significantly better evolved data than other methods. Furthermore, we conduct a thorough analysis of the evolved data, demonstrating that Tag-Evol is not only efficient but also generates more diverse and challenging data.
- Abstract(参考訳): Evol-Instructはいくつかの分野でデータ合成法として大幅に改善されている。
既存のメソッドは通常、手動設計が必要で、形式的にモノリシックな、進化する戦略の固定セットに依存します。
さらに、反復進化により、ハードサンプルの取得も高価になる。
そこで本研究では,より多様で効率的な命令進化手法であるTag-Evolフレームワークを提案する。
特にTag-Evolは、異なるタグの組み合わせを元の命令に注入することで、制御された進化を達成するための戦略として、多種多様な特定の知識タグを使用している。
多様な領域ベンチマークにおいて,複数のバックボーンを用いた実験により,提案手法が他の手法よりも大幅に進化したデータを生成することを示した。
さらに、進化したデータの徹底的な分析を行い、Tag-Evolが効率的であるだけでなく、より多様で困難なデータを生成することを示した。
関連論文リスト
- HiDe-LLaVA: Hierarchical Decoupling for Continual Instruction Tuning of Multimodal Large Language Model [37.85614317331844]
本稿では,タスク固有拡張とタスク一般融合フレームワークを提案する。
既存のベンチマークに存在する情報漏洩を分析し、異なる手法の性能を合理的に評価する新しい、より困難なベンチマークを提案する。
論文 参考訳(メタデータ) (2025-03-17T08:56:03Z) - Automatic Instruction Evolving for Large Language Models [93.52437926313621]
Auto Evol-Instructは、人間の努力なしに大規模な言語モデルを使用して命令データセットを進化させるエンドツーエンドフレームワークである。
実験の結果, Auto Evol-Instruct で最適化された最良の手法は, 様々なベンチマークにおいて, 人為的に設計した手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-06-02T15:09:00Z) - Self-Evolved Diverse Data Sampling for Efficient Instruction Tuning [47.02160072880698]
モデル自体が等しくあるいはそれ以上に効果的であるサブセットを積極的にサンプリングできる自己進化メカニズムを導入します。
データサンプリング技術の鍵は、選択したサブセットの多様性の向上にあります。
3つのデータセットとベンチマークにわたる大規模な実験は、DiverseEvolの有効性を示している。
論文 参考訳(メタデータ) (2023-11-14T14:10:40Z) - Distributionally Robust Cross Subject EEG Decoding [15.211091130230589]
本稿では,デコードロバスト性を改善するために,データ上で動的に進化する原理的手法を提案する。
We derived a general data evolution framework based on Wasserstein gradient flow (WGF) and provide two different form of evolution within the framework。
提案手法は、さらなる改善のために、他のデータ拡張手法と容易に統合できる。
論文 参考訳(メタデータ) (2023-08-19T11:31:33Z) - Few-Shot Data-to-Text Generation via Unified Representation and
Multi-Source Learning [114.54944761345594]
本稿では,既存の手法の限界に対処する構造化データ・テキスト生成手法を提案する。
提案手法は,マルチタスクトレーニング,ゼロショット,少数ショットシナリオの性能向上を目的としている。
論文 参考訳(メタデータ) (2023-08-10T03:09:12Z) - Domain Generalization for Mammographic Image Analysis with Contrastive
Learning [62.25104935889111]
効果的なディープラーニングモデルのトレーニングには、さまざまなスタイルと品質を備えた大規模なデータが必要である。
より優れたスタイルの一般化能力を備えた深層学習モデルを実現するために,新しいコントラスト学習法が開発された。
提案手法は,様々なベンダスタイルドメインのマンモグラムや,いくつかのパブリックデータセットを用いて,広範囲かつ厳密に評価されている。
論文 参考訳(メタデータ) (2023-04-20T11:40:21Z) - SDA: Improving Text Generation with Self Data Augmentation [88.24594090105899]
自動データ拡張のための自己模倣学習フェーズを組み込むことにより,標準最大確率推定(MLE)パラダイムを改善することを提案する。
既存の文レベルの拡張戦略とは異なり,本手法はより汎用的で,任意のMLEベースの訓練手順に容易に適応できる。
論文 参考訳(メタデータ) (2021-01-02T01:15:57Z) - Dynamic Scale Training for Object Detection [111.33112051962514]
本稿では,オブジェクト検出におけるスケール変動問題を軽減するために,動的スケールトレーニングパラダイム(DST)を提案する。
提案したDSTのスケール変動処理に対する有効性を示す実験結果を得た。
推論オーバーヘッドを導入せず、一般的な検出設定のための無料ランチとして機能する。
論文 参考訳(メタデータ) (2020-04-26T16:48:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。