論文の概要: Think Less, Label Better: Multi-Stage Domain-Grounded Synthetic Data Generation for Fine-Tuning Large Language Models in Telecommunications
- arxiv url: http://arxiv.org/abs/2509.25736v1
- Date: Tue, 30 Sep 2025 03:49:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 17:09:04.41631
- Title: Think Less, Label Better: Multi-Stage Domain-Grounded Synthetic Data Generation for Fine-Tuning Large Language Models in Telecommunications
- Title(参考訳): テレコミュニケーションにおける大規模言語モデルのための多段階ドメインを取り巻く合成データ生成
- Authors: Chenhua Shi, Gregor Macdonald, Bhavika Jalli, Wanlu Lei, John Zou, Mridul Jain, Joji Philip,
- Abstract要約: 本稿では、構造化ドメイン知識に基づく合成質問応答対を生成するための探索拡張パイプラインを提案する。
我々のフレームワークは、検索器、ベースジェネレータ、精製モデルを統合して、QAペアを合成し、拡張する。
我々は,無線アクセスネットワーク(RAN)のトラブルシューティングに着目した実世界の通信シナリオにおいて,我々のアプローチを実証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The success of large language models (LLMs) depends heavily on large-scale, high-quality instruction-following and reinforcement datasets. However, generating such data through human annotation is prohibitively time-consuming particularly for domain-specific tasks like telecom network troubleshooting, where accurate responses require deep technical expertise and contextual understanding. In this paper, we present a fully automated, retrieval-augmented pipeline for generating synthetic question-answer (QA) pairs grounded in structured domain knowledge. Our multi-stage framework integrates a retriever, base generator, and refinement model to synthesize and enhance QA pairs using documents retrieved from a domain-specific knowledge graph. To ensure data quality, we employ customized RAGAS-based scoring to filter low-quality samples, producing a high-quality dataset suitable for reinforcement fine-tuning (RFT). We demonstrate our approach in a real-world telecom scenario focused on radio access network (RAN) troubleshooting. The resulting pipeline generates complex, context-rich troubleshooting solution plans without human intervention. This work offers a scalable solution for building instruction and reinforcement datasets in specialized domains, significantly reducing dependence on manual labeling while maintaining high technical fidelity.
- Abstract(参考訳): 大規模言語モデル(LLM)の成功は、大規模で高品質な命令フォローと強化データセットに大きく依存している。
しかし、人間のアノテーションによってこのようなデータを生成することは、特に、正確な応答が深い専門知識と文脈理解を必要とする通信ネットワークトラブルシューティングのようなドメイン固有のタスクには、非常に時間がかかります。
本稿では、構造化ドメイン知識に基づく合成質問応答(QA)ペアを生成するための完全自動検索拡張パイプラインを提案する。
我々の多段階フレームワークは、検索器、ベースジェネレータ、精製モデルを統合し、ドメイン固有の知識グラフから取得した文書を用いてQAペアを合成および拡張する。
データ品質を確保するため、RAGASに基づくスコアリングをカスタマイズして低品質サンプルをフィルタリングし、強化微調整(RFT)に適した高品質なデータセットを作成する。
我々は,無線アクセスネットワーク(RAN)のトラブルシューティングに着目した実世界の通信シナリオにおいて,我々のアプローチを実証する。
結果としてパイプラインは、人間の介入なしに複雑な、コンテキストに富んだトラブルシューティングソリューションプランを生成する。
この作業は、特殊なドメインで命令と強化データセットを構築するためのスケーラブルなソリューションを提供する。
関連論文リスト
- Embedding Domain Knowledge for Large Language Models via Reinforcement Learning from Augmented Generation [18.99847259801634]
本稿では,RLAG(Reinforcement Learning from Augmented Generation)を提案し,ドメイン知識を大規模言語モデルに組み込む。
提案手法は, サンプリング世代間を反復的に循環し, 計算した報酬によってモデルを最適化する。
医学、法学、天文学、および現在のイベントデータセットにわたる実験結果から、提案手法がベースラインアプローチを著しく上回ることを示す。
論文 参考訳(メタデータ) (2025-09-24T14:30:16Z) - WebSailor-V2: Bridging the Chasm to Proprietary Agents via Synthetic Data and Scalable Reinforcement Learning [73.91893534088798]
WebSailorは、この重要な機能を組み込むように設計された、完全なポストトレーニング方法論である。
我々のアプローチは、構造化サンプリングと情報難読化によって、新しい、不確実なタスクを生成することである。
WebSailorは複雑な情報検索タスクにおいて、すべてのオープンソースエージェントを著しく上回る。
論文 参考訳(メタデータ) (2025-09-16T17:57:03Z) - SimpleDeepSearcher: Deep Information Seeking via Web-Powered Reasoning Trajectory Synthesis [89.99161034065614]
Retrieval-augmented Generation (RAG) システムは複雑なディープ検索シナリオにおいて高度な大規模言語モデル(LLM)を持つ。
既存のアプローチでは、高品質なトレーニングトラジェクトリが欠如し、分散ミスマッチに苦しむ、重要な制限に直面しています。
本稿では,複雑なトレーニングパラダイムではなく,戦略的データエンジニアリングによるギャップを埋めるフレームワークであるSimpleDeepSearcherを紹介する。
論文 参考訳(メタデータ) (2025-05-22T16:05:02Z) - RouteNator: A Router-Based Multi-Modal Architecture for Generating Synthetic Training Data for Function Calling LLMs [3.41612427812159]
デジタルコンテンツ作成ツールでは、ユーザは、API呼び出しにマップしなければならない自然言語クエリを通じて、ニーズを表現します。
既存の合成データ生成アプローチでは、実世界のデータ分散を複製することができない。
高品質な合成学習データを生成するルータベースのアーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-05-15T16:53:45Z) - What are the Essential Factors in Crafting Effective Long Context Multi-Hop Instruction Datasets? Insights and Best Practices [91.71951459594074]
拡張コンテキストウィンドウを持つLong Language Model (LLM) は、情報抽出、質問応答、複雑な計画シナリオなどのタスクを大幅に改善した。
既存のメソッドは通常、Self-Instructフレームワークを使用して、長いコンテキスト能力を改善するために命令チューニングデータを生成する。
本稿では,品質検証エージェント,シングルホップ質問生成エージェント,複数質問サンプリング戦略,マルチホップ質問マーガーエージェントを組み込んだマルチエージェント対話型マルチホップ生成フレームワークを提案する。
以上の結果から,我々の合成高品位長文指導データにより,多量の人体で訓練したモデルよりも,モデル性能が著しく向上することが示唆された。
論文 参考訳(メタデータ) (2024-09-03T13:30:00Z) - Automatically Generating Numerous Context-Driven SFT Data for LLMs across Diverse Granularity [0.0]
AugConは、さまざまなレベルの粒度のコンテキスト駆動SFTデータを、多様性、品質、忠実度で自動生成することができる。
コントラスト学習を通じてスコアラーをトレーニングし、CSTと協調してクエリのランク付けと洗練を行う。
その結果、AugConがいくつかの最先端手法に対して高多様性、品質、忠実度SFTデータを生成する際の大きな利点を浮き彫りにした。
論文 参考訳(メタデータ) (2024-05-26T14:14:18Z) - Learning Wireless Data Knowledge Graph for Green Intelligent Communications: Methodology and Experiments [36.82287751359216]
我々は,知識グラフ(KG)の概念をモバイルネットワークのインテリジェントな操作操作に統合した,広汎なマルチレベル(PML)ネイティブAIアーキテクチャを提案する。
我々は、無線通信ネットワークから収集された大規模で複雑なデータを特徴付け、様々なデータフィールド間の関係を分析する。
このアーキテクチャは、AIトレーニング、推論、検証プロセスを強化するだけでなく、通信ネットワークのリソースの浪費とオーバーヘッドを大幅に削減する。
論文 参考訳(メタデータ) (2024-04-16T07:55:34Z) - Unsupervised Domain Adaptive Learning via Synthetic Data for Person
Re-identification [101.1886788396803]
人物再識別(re-ID)は、ビデオ監視に広く応用されているため、ますます注目を集めている。
残念なことに、主流のディープラーニング手法では、モデルをトレーニングするために大量のラベル付きデータが必要です。
本稿では,コンピュータゲーム内で合成されたre-IDサンプルを自動的に生成するデータコレクタを開発し,同時にアノテートするデータラベラを構築した。
論文 参考訳(メタデータ) (2021-09-12T15:51:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。