論文の概要: Interactive AI NPCs Powered by LLMs: Technical Report for the CPDC Challenge 2025
- arxiv url: http://arxiv.org/abs/2511.20200v1
- Date: Tue, 25 Nov 2025 11:24:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.42395
- Title: Interactive AI NPCs Powered by LLMs: Technical Report for the CPDC Challenge 2025
- Title(参考訳): LLMによる対話型AI NPC: CPDC Challenge 2025のテクニカルレポート
- Authors: Yitian Huang, Yuxuan Lei, Jianxun Lian, Hao Liao,
- Abstract要約: 本報告では,Commonsense Persona-Grounded Dialogue Challenge (CPDC 2025)におけるMSRA_SCの解決と成果について述べる。
我々は、GPU TrackとAPI Trackの両方で改善を統一する、シンプルで効果的なフレームワークを提案する。
最終評価では、Task 2 APIで1位、Task 1 APIで2位、そしてTask 3 APIとGPUトラックで3位にランクインし、このアプローチの有効性を実証しています。
- 参考スコア(独自算出の注目度): 18.41831541107857
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This report presents the solution and results of our team MSRA\_SC in the Commonsense Persona-Grounded Dialogue Challenge (CPDC 2025). We propose a simple yet effective framework that unifies improvements across both GPU Track and API Track. Our method centers on two key components. First, Context Engineering applies dynamic tool pruning and persona clipping for input compression, combined with post-processing techniques such as parameter normalization and function merging. Together with manually refined prompts, this design improves tool call stability, execution reliability, and role-playing guidance. Second, in the GPU Track, we further adopt GRPO training, replacing supervised fine-tuning with reinforcement learning directly optimized by reward signals. This mitigates small-sample overfitting and significantly enhances task-oriented dialogue performance. In the final evaluation, our team ranks 1st in Task 2 API, 2nd in Task 1 API, and 3rd in both Task 3 API and GPU track, demonstrating the effectiveness of our approach. Our code is publicly available at https://gitlab.aicrowd.com/nikoo_yu/cpdc-2025-winning-solution
- Abstract(参考訳): 本報告では,Commonsense Persona-Grounded Dialogue Challenge (CPDC 2025)におけるMSRA\_SCの解決と結果について述べる。
我々は、GPU TrackとAPI Trackの両方で改善を統一する、シンプルで効果的なフレームワークを提案する。
我々の手法は2つの重要な要素に焦点を当てている。
まず、Context Engineeringは動的ツールプルーニングとペルソナクリッピングを入力圧縮に適用し、パラメータ正規化や関数マージといった後処理技術と組み合わせる。
手動で改良されたプロンプトと合わせて、ツールコールの安定性、実行信頼性、ロールプレイングガイダンスが改善されている。
第二に、GPU TrackではGRPOトレーニングを採用し、教師付き微調整を報酬信号によって直接最適化された強化学習に置き換える。
これにより、小さめのオーバーフィッティングが軽減され、タスク指向の対話性能が大幅に向上する。
最終評価では、Task 2 APIで1位、Task 1 APIで2位、そしてTask 3 APIとGPUトラックで3位にランクインし、このアプローチの有効性を実証しています。
私たちのコードはhttps://gitlab.aicrowd.com/nikoo_yu/cpdc-2025-winning-solutionで公開されています。
関連論文リスト
- Deflanderization for Game Dialogue: Balancing Character Authenticity with Task Execution in LLM-based NPCs [2.2816872489992135]
本稿では,Commonsense Persona-Grounded Dialogue Challenge (CPDC) 2025 Round 2への参加について報告する。
i) 過剰なロールプレイの抑制とタスクの忠実度向上のためのデフランダライズプロンプト手法を含むAPIトラックの軽量なプロンプト手法と,(ii) Qwen3-14Bと教師付きファインタニング(SFT)とローランド適応(LoRA)を併用したGPUトラックの微調整大型モデルを組み合わせる。
論文 参考訳(メタデータ) (2025-10-15T14:17:23Z) - Detect Anything via Next Point Prediction [51.55967987350882]
Rex-Omniは最先端の物体認識性能を実現する3BスケールのMLLMである。
COCOやLVISのようなベンチマークでは、Rex-Omniは回帰ベースのモデルに匹敵するパフォーマンスを得る。
論文 参考訳(メタデータ) (2025-10-14T17:59:54Z) - THOR: Tool-Integrated Hierarchical Optimization via RL for Mathematical Reasoning [25.605096023894834]
大規模言語モデル (LLM) は数学的推論において顕著な進歩を遂げた。
最近の進歩にもかかわらず、既存の手法は3つの重要な課題に直面している。
我々はこれらの制限を克服するためにTHOR(Tool-Integrated Hierarchical Optimization via RL)を提案する。
提案手法は多種多様なモデルに対して強い一般化を示し,推論モデルと非推論モデルの両方で効果的に機能する。
論文 参考訳(メタデータ) (2025-09-17T07:16:12Z) - Contrastive Transformer Learning with Proximity Data Generation for
Text-Based Person Search [60.626459715780605]
記述的なテキストクエリーを与えられたテキストベースの人物検索は、画像ギャラリーからベストマッチした人物を検索することを目的としている。
このようなクロスモーダル検索タスクは、重要なモダリティギャップ、きめ細かい相違、注釈付きデータの不十分さのため、かなり難しい。
本稿では,テキストに基づく人物検索のための2つのトランスフォーマーモデルを提案する。
論文 参考訳(メタデータ) (2023-11-15T16:26:49Z) - Re-Evaluating LiDAR Scene Flow for Autonomous Driving [80.37947791534985]
自己教師型LiDARシーンフローの一般的なベンチマークは、動的動き、非現実的な対応、非現実的なサンプリングパターンの非現実的な速度を持つ。
実世界のデータセットのスイート上で,トップメソッドのスイートを評価する。
学習に重点を置いているにもかかわらず、ほとんどのパフォーマンス向上は前処理と後処理のステップによって引き起こされる。
論文 参考訳(メタデータ) (2023-04-04T22:45:50Z) - Leveraging Sequentiality in Reinforcement Learning from a Single
Demonstration [68.94506047556412]
本稿では,複雑なロボットタスクの制御ポリシーを1つの実演で学習するために,シーケンシャルなバイアスを活用することを提案する。
本研究は, ヒューマノイド移動やスタンドアップなど, 模擬課題のいくつかを, 前例のないサンプル効率で解くことができることを示す。
論文 参考訳(メタデータ) (2022-11-09T10:28:40Z) - Bi-level Alignment for Cross-Domain Crowd Counting [113.78303285148041]
現在の手法は、補助的なタスクを訓練したり、高価な粗大な見積もりを適用したりするための外部データに依存している。
そこで我々は, 簡易かつ効率的に適用可能な, 逆学習に基づく新しい手法を開発した。
実世界の5つのクラウドカウントベンチマークに対するアプローチを評価し、既存のアプローチを大きなマージンで上回ります。
論文 参考訳(メタデータ) (2022-05-12T02:23:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。