論文の概要: Small Models, Big Results: Achieving Superior Intent Extraction through Decomposition
- arxiv url: http://arxiv.org/abs/2509.12423v1
- Date: Mon, 15 Sep 2025 20:20:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-17 17:50:52.752162
- Title: Small Models, Big Results: Achieving Superior Intent Extraction through Decomposition
- Title(参考訳): 小さなモデル, 大きな結果:分解による上位インテント抽出の実現
- Authors: Danielle Cohen, Yoni Halpern, Noam Kahlon, Joel Oren, Omri Berkovitch, Sapir Caduri, Ido Dagan, Anatoly Efros,
- Abstract要約: 本稿では,ユーザインタラクションの軌跡からユーザ意図を理解するための新しいアプローチを提案する。
構造化されたインタラクションの要約を行い、各ユーザアクションからキー情報をキャプチャする。
第2に,集計した要約をベースとした微調整モデルを用いて意図抽出を行う。
- 参考スコア(独自算出の注目度): 8.584946920657517
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding user intents from UI interaction trajectories remains a challenging, yet crucial, frontier in intelligent agent development. While massive, datacenter-based, multi-modal large language models (MLLMs) possess greater capacity to handle the complexities of such sequences, smaller models which can run on-device to provide a privacy-preserving, low-cost, and low-latency user experience, struggle with accurate intent inference. We address these limitations by introducing a novel decomposed approach: first, we perform structured interaction summarization, capturing key information from each user action. Second, we perform intent extraction using a fine-tuned model operating on the aggregated summaries. This method improves intent understanding in resource-constrained models, even surpassing the base performance of large MLLMs.
- Abstract(参考訳): UIインタラクションの軌跡からユーザ意図を理解することは、インテリジェントエージェント開発において難しいが、重要なフロンティアである。
大規模でデータセンターベースのマルチモーダルな大規模言語モデル(MLLM)は、そのようなシーケンスの複雑さを扱う能力が大きいが、プライバシ保護、低コスト、低レイテンシなユーザエクスペリエンスを提供するためにデバイス上で実行できる小さなモデルでは、正確な意図推論に苦労する。
まず、構造化されたインタラクションの要約を行い、各ユーザアクションからキー情報をキャプチャする。
第2に,集計した要約をベースとした微調整モデルを用いて意図抽出を行う。
この手法は,資源制約モデルにおける意図的理解を改良し,大規模なMLLMのベース性能を超えている。
関連論文リスト
- Quantization Meets dLLMs: A Systematic Study of Post-training Quantization for Diffusion LLMs [54.70676039314542]
本稿では拡散に基づく言語モデルの定量化に関する最初の体系的研究について述べる。
異常に大きなアクティベーション値によって特徴付けられるアクティベーションアウトリーチの存在を同定する。
我々は、最先端のPTQ手法を実装し、複数のタスクタイプとモデル変種を包括的に評価する。
論文 参考訳(メタデータ) (2025-08-20T17:59:51Z) - LLM-based Bi-level Multi-interest Learning Framework for Sequential Recommendation [54.396000434574454]
本稿では,暗黙的行動と明示的意味論的視点を組み合わせた新しい多目的SRフレームワークを提案する。
Implicit Behavioral Interest ModuleとExplicit Semantic Interest Moduleの2つのモジュールが含まれている。
4つの実世界のデータセットの実験は、フレームワークの有効性と実用性を検証する。
論文 参考訳(メタデータ) (2024-11-14T13:00:23Z) - A Closer Look at GAN Priors: Exploiting Intermediate Features for Enhanced Model Inversion Attacks [43.98557963966335]
Model Inversion (MI)攻撃は、出力情報を利用して、リリースされたモデルからプライバシーに敏感なトレーニングデータを再構築することを目的としている。
GAN(Generative Adversarial Network)の最近の進歩は、MI攻撃の性能向上に大きく貢献している。
本稿では,GAN構造を分解し,中間ブロック間の特徴を利用する中間特徴拡張生成モデル変換(IF-GMI)を提案する。
論文 参考訳(メタデータ) (2024-07-18T19:16:22Z) - Exploiting Modality-Specific Features For Multi-Modal Manipulation
Detection And Grounding [54.49214267905562]
マルチモーダルな操作検出とグラウンド処理のためのトランスフォーマーベースのフレームワークを構築する。
本フレームワークは,マルチモーダルアライメントの能力を維持しながら,モダリティ特有の特徴を同時に探求する。
本稿では,グローバルな文脈的キューを各モーダル内に適応的に集約する暗黙的操作クエリ(IMQ)を提案する。
論文 参考訳(メタデータ) (2023-09-22T06:55:41Z) - Scaling Vision-Language Models with Sparse Mixture of Experts [128.0882767889029]
提案手法は, 等価計算コストの高密度モデルに対して, 様々なベンチマークにおいて, 最先端性能を実現することができることを示す。
我々の研究は、MoEモデルのトレーニングの安定化、モデル解釈可能性に対するMoEの影響の理解、ビジョン言語モデルをスケールする際の計算性能間のトレードオフのバランスに関する貴重な洞察を提供する。
論文 参考訳(メタデータ) (2023-03-13T16:00:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。