論文の概要: Model Fusion with Multi-LoRA Inference for Tool-Enhanced Game Dialogue Agents
- arxiv url: http://arxiv.org/abs/2509.24229v1
- Date: Mon, 29 Sep 2025 03:15:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.716647
- Title: Model Fusion with Multi-LoRA Inference for Tool-Enhanced Game Dialogue Agents
- Title(参考訳): ツール強化型ゲーム対話エージェントのためのマルチロラ推論を用いたモデル融合
- Authors: Kangxu Wang, Ze Chen, Chengcheng Wei, Jiewen Zheng, Jiarong He, Max Gao,
- Abstract要約: 本稿では,CPDC 2025チャレンジのGPUトラックに対するOpdainlpチームのソリューションについて述べる。
この課題は3つのタスクから構成されており、キャラクターのペルソナに準拠し、ゲームのワールドビューと整合し、関数呼び出しをサポートするゲーム内会話型AIの構築を目指している。
我々は,LoRAファインチューニングとモデル融合を併用したQwen3-14Bを用い,推論中に複数のLoRAアダプタと統合されたベースモデルを用いた。
- 参考スコア(独自算出の注目度): 2.949910920517526
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents the opdainlp team's solution for the GPU track of the CPDC 2025 challenge. The challenge consists of three tasks, aiming to build an in-game conversational AI that adheres to character personas, aligns with the game's worldview, and supports function calling. Considering both effectiveness and resource/time constraints during inference, we synthesized data for some of the tasks based on the datasets provided by the competition organizers. We employed Qwen3-14B with LoRA fine-tuning and model fusion, and utilized a base model integrated with multiple LoRA adapters during inference. Specifically, in the competition, we used three distinct LoRA adapters to handle tool calling, response generation with tool call results, and response generation without tool call results, respectively. MultiLoRA inference was implemented using vLLM. Our solution achieved the first place in Task 1 and Task 3, and the second place in Task 2 of the GPU track.
- Abstract(参考訳): 本稿では,CPDC 2025チャレンジのGPUトラックに対するOpdainlpチームのソリューションについて述べる。
この課題は3つのタスクから構成されており、キャラクターのペルソナに準拠し、ゲームのワールドビューと整合し、関数呼び出しをサポートするゲーム内会話型AIの構築を目指している。
推論における有効性と資源/時間制約を考慮し,コンペティションオーガナイザが提供したデータセットに基づいて,タスクのいくつかのデータを合成した。
我々は,LoRAファインチューニングとモデル融合を併用したQwen3-14Bを用い,推論中に複数のLoRAアダプタと統合されたベースモデルを用いた。
具体的には,ツールコールによる応答生成,ツールコールによる応答生成,ツールコールによる応答生成の3つの異なるLoRAアダプタについて検討した。
マルチロラ推論はvLLMを用いて実装された。
当社のソリューションは,第1タスクと第3タスクで第2位,GPUトラックの第2タスクで第1位を獲得しました。
関連論文リスト
- Tensorized Clustered LoRA Merging for Multi-Task Interference [29.488565631016332]
マルチタスク設定では、ヘテロジニアスソースでトレーニングされたLoRAアダプタをマージすると、しばしばtextittaskの干渉が発生し、下流のパフォーマンスが低下する。
本稿では,タスクの干渉に対処するために,テンソル化されたクラスタ化LoRAライブラリを提案する。
TC-LoRAはPhi-3で+1.4%、Mistral-7Bで+2.3%の精度を達成し、LCM適応におけるTC-LoRAの有効性を示した。
論文 参考訳(メタデータ) (2025-08-06T01:26:43Z) - Solution for Meta KDD Cup'25: A Comprehensive Three-Step Framework for Vision Question Answering [7.481274094559558]
本稿ではBlackPearlチームによるMeta KDD Cup'25における全タスクの解について述べる。
各タスクに1つのモデルを使用し、データ拡張、RAG、再ランク付け、微調整を含む主要なメソッドを扱います。
提案手法は,3つのタスクにおいて3位,3位,1位の自動評価を達成し,人的評価の後,第3タスクで2位を獲得した。
論文 参考訳(メタデータ) (2025-07-29T06:07:59Z) - Multi LoRA Meets Vision: Merging multiple adapters to create a multi task model [1.2891210250935148]
本稿では,コンピュータビジョンタスクで訓練された複数のLoRAアダプタをマージできるかどうかを検討した。
6つの異なるタスクでアダプタを訓練し、それらがマージされたときのパフォーマンスを評価しました。
以上の結果から,アダプタをマージすることでマルチタスクモデルを生成する単純なマージ手法であっても,若干の性能を損なうことで実現可能であることが示唆された。
論文 参考訳(メタデータ) (2024-11-21T12:26:33Z) - RepVF: A Unified Vector Fields Representation for Multi-task 3D Perception [64.80760846124858]
本稿では,様々な知覚タスクの表現を調和させる新しい統一表現RepVFを提案する。
RepVFは、ベクトル場を通じてシーン内の異なるターゲットの構造を特徴付け、シングルヘッドでマルチタスクの学習モデルを可能にする。
RepVF 上に構築された RFTR は,タスク間の固有性を利用したネットワークである。
論文 参考訳(メタデータ) (2024-07-15T16:25:07Z) - Retrieval-Augmented Mixture of LoRA Experts for Uploadable Machine Learning [57.36978335727009]
Low-Rank Adaptation (LoRA)は、大規模言語モデル(LLM)を微調整する効率的な方法を提供する。
本稿では,入力プロンプトに基づいて複数のLoRAを適応的に検索・構成するフレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-24T05:24:41Z) - ControlLLM: Augment Language Models with Tools by Searching on Graphs [97.62758830255002]
我々は,大規模言語モデル(LLM)が実世界のタスクを解くためのマルチモーダルツールを利用できる新しいフレームワークであるControlLLMを提案する。
フレームワークは,(1)複雑なタスクを明確なサブタスクに分割し,入力と出力を適切に定義したサブタスクに分解するtextittask Decomposer,(2)構築済みのツールグラフ上で最適なソリューションパスを探索する textitThoughts-on-Graph(ToG)パラダイム,(3)ソリューションパスを解釈して実行するリッチなツールボックスを備えた textitexecution Engine,の3つの主要なコンポーネントから構成される。
論文 参考訳(メタデータ) (2023-10-26T21:57:21Z) - Towards End-to-End Open Conversational Machine Reading [57.18251784418258]
オープン検索型会話機械読解(OR-CMR)タスクでは,機械は対話履歴とテキスト知識ベースに応答するマルチターン質問を行う必要がある。
OR-CMRを完全エンドツーエンドで統一されたテキスト・ツー・テキスト・タスクとしてモデル化し、ShARCおよびOR-ShARCデータセットを用いた実験により、提案したエンドツーエンド・フレームワークの有効性を示す。
論文 参考訳(メタデータ) (2022-10-13T15:50:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。