論文の概要: APIDA-Chat: Structured Synthesis of API Search Dialogues to Bootstrap Conversational Agents
- arxiv url: http://arxiv.org/abs/2510.03743v1
- Date: Sat, 04 Oct 2025 08:58:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-07 16:52:59.223715
- Title: APIDA-Chat: Structured Synthesis of API Search Dialogues to Bootstrap Conversational Agents
- Title(参考訳): APIDA-Chat: ブートストラップ対話エージェントに対するAPI検索対話の構造的合成
- Authors: Zachary Eberhart, Collin McMillan,
- Abstract要約: APIDA-Chatは、シンボリック対話を実行する"スクリプト"を、現実的なドメインベースのAPI検索会話に変換する、オープンソースのパイプラインである。
フェーズIは、レガシな対話プランナーと高機能な教師LLMをペアにして、実現された対話の「金のセット」を合成する。
フェーズ2は教師を降ろし、微調整されたモデルで同じプランナーを再利用することで、新しい対話を迅速かつ低コストで合成することができる。
- 参考スコア(独自算出の注目度): 0.8307668828380427
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large-language-model assistants are suitable for explaining popular APIs, yet they falter on niche or proprietary libraries because the multi-turn dialogue data needed for fine-tuning are scarce. We present APIDA-Chat, an open-source pipeline that converts symbolic dialogue-act "scripts" into realistic, domain-grounded API Search conversations using a lightweight model for inexpensive training data generation. Phase I pairs a legacy dialogue planner with a high-capability teacher LLM (o4-mini) to synthesize a "gold set" of realized dialogues; then, a smaller Llama 3.2 3B student model is fine-tuned on this corpus. Phase II drops the teacher and reuses the same planner with the fine-tuned model, allowing rapid, low-cost synthesis of new dialogues without exposing source code to external services. The fine-tuned student improves BLEU from 0.38 to 0.50 and BERTScore from 0.88 to 0.91 versus the base model while running entirely on a single consumer GPU. All components are modular and publicly released to serve as a conservative baseline for future work. APIDA-Chat is open-sourced at https://github.com/Zeberhart/apida-chat and a video demo is available at https://youtu.be/YqmZBHyGbPs .
- Abstract(参考訳): 大言語モデルアシスタントは、人気のあるAPIを説明するのに適しているが、微調整に必要なマルチターン対話データが不足しているため、ニッチやプロプライエタリなライブラリに干渉する。
APIDA-Chatは、オープンソースのパイプラインで、シンボリック対話の「スクリプト」を、安価なトレーニングデータ生成のための軽量モデルを用いて、リアルでドメインベースのAPI検索の会話に変換する。
フェーズIでは、レガシな対話プランナーと高機能なLLM(o4-mini)をペアにして、実現された対話の「金のセット」を合成し、さらに小さなLlama 3.2 3Bの学生モデルをこのコーパスで微調整する。
フェーズ2は教師を降ろし、微調整されたモデルで同じプランナーを再利用することで、ソースコードを外部サービスに公開することなく、迅速に低コストで新しい対話を合成できる。
この微調整された生徒はBLEUを0.38から0.50に改善し、BERTScoreは0.88から0.91に改善した。
すべてのコンポーネントはモジュール化されており、将来の作業の保守的なベースラインとして機能するように公開されています。
APIDA-Chatはhttps://github.com/Zeberhart/apida-chatでオープンソース化されている。
関連論文リスト
- ToolDial: Multi-turn Dialogue Generation Method for Tool-Augmented Language Models [1.82618237315022]
我々は,RapidAPIのAPIに基づいて,対話毎に平均8.95回転する11,111のマルチターン対話からなるデータセットであるToolDialをリリースした。
システムから必要な情報をAPIドキュメントに基づいて要求する対話をシミュレートし,必要な情報の提供に失敗した場合に追加のAPIを求める。
我々は,正しい動作を予測し,対話履歴からAPI呼び出しの入力パラメータ値を抽出する言語モデル群を評価する。
論文 参考訳(メタデータ) (2025-03-01T17:23:51Z) - Fine-Tuning Qwen 2.5 3B for Realistic Movie Dialogue Generation [4.884240342385462]
Alibaba Groupが開発したQwen 2.5シリーズは、小さなオープンソースの事前訓練モデルの最前線にある。
その結果、小型モデルが高品質でリアルな対話を実現する能力を示し、リアルタイムで文脈に敏感な会話生成に有望なアプローチを提供する。
論文 参考訳(メタデータ) (2025-02-22T16:00:01Z) - OmniFlatten: An End-to-end GPT Model for Seamless Voice Conversation [53.7173034249361]
エンド・ツー・エンドのGPTベースモデルであるOmniFlattenは、低レイテンシで自然な会話に固有の複雑な振る舞いを効果的にモデル化することができる。
提案手法は, 簡便なモデリング手法と, より効率的かつ自然な対話システムを構築するための研究の方向性を提供する。
論文 参考訳(メタデータ) (2024-10-23T11:58:58Z) - Video-ChatGPT: Towards Detailed Video Understanding via Large Vision and Language Models [59.525108086957296]
Video-ChatGPTは、ビデオ適応型ビジュアルエンコーダとLLMをマージするマルチモーダルモデルである。
ビデオに関する詳細な会話を理解し、生成することができる。
我々は,ビデオチャットGPTのトレーニングに使用される10,000対のビデオ命令ペアの新しいデータセットを提案する。
論文 参考訳(メタデータ) (2023-06-08T17:59:56Z) - Baize: An Open-Source Chat Model with Parameter-Efficient Tuning on
Self-Chat Data [101.63682141248069]
ChatGPTのようなチャットモデルは印象的な機能を示しており、多くのドメインで急速に採用されている。
本稿では,ChatGPTを利用して,高品質なマルチターンチャットコーパスを自動生成するパイプラインを提案する。
我々は,オープンソースの大規模言語モデルであるLLaMAを強化するために,パラメータ効率のチューニングを用いる。
論文 参考訳(メタデータ) (2023-04-03T17:59:09Z) - Controllable Dialogue Simulation with In-Context Learning [39.04491297557292]
textscDialogicは、大規模言語モデルに基づく対話シミュレーション手法である。
本手法は,人間の関与を最小あるいはゼロに抑えながら,少数の対話データを迅速に拡張することができる。
我々のシミュレートされた対話は、ほぼ人間に近い流速とアノテーションの精度を持つ。
論文 参考訳(メタデータ) (2022-10-09T06:32:58Z) - Fusing task-oriented and open-domain dialogues in conversational agents [12.338220374261343]
2つの対話モードは、友好的な人間のアシスタントが簡単に行うように、同じ会話でシームレスに連携することができる。
本稿では,マルチターン対話におけるTODとODDの融合の問題に対処する。
すなわち、対話は2つのモードから切り替わる。
論文 参考訳(メタデータ) (2021-09-09T09:48:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。