論文の概要: Talk, Snap, Complain: Validation-Aware Multimodal Expert Framework for Fine-Grained Customer Grievances
- arxiv url: http://arxiv.org/abs/2511.14693v1
- Date: Tue, 18 Nov 2025 17:29:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:53.236086
- Title: Talk, Snap, Complain: Validation-Aware Multimodal Expert Framework for Fine-Grained Customer Grievances
- Title(参考訳): 講演, Snap, 不満: 細粒度顧客満足のためのバリデーション対応マルチモーダルエキスパートフレームワーク
- Authors: Rishu Kumar Singh, Navneet Shreya, Sarmistha Das, Apoorva Singh, Sriparna Saha,
- Abstract要約: 既存の苦情分析へのアプローチは、つぶやきや製品レビューのような、一過性の短いコンテンツに大きく依存している。
本稿では,このマルチモーダル設定に適した,エキスパートルーティング付きバリデーション・アウェア・ラーナーであるVALORを紹介する。
微粒なアスペクト重大さとラベルを付加したマルチモーダル・クレーム・データセット上でVALORを評価した。
- 参考スコア(独自算出の注目度): 14.30884038757821
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Existing approaches to complaint analysis largely rely on unimodal, short-form content such as tweets or product reviews. This work advances the field by leveraging multimodal, multi-turn customer support dialogues, where users often share both textual complaints and visual evidence (e.g., screenshots, product photos) to enable fine-grained classification of complaint aspects and severity. We introduce VALOR, a Validation-Aware Learner with Expert Routing, tailored for this multimodal setting. It employs a multi-expert reasoning setup using large-scale generative models with Chain-of-Thought (CoT) prompting for nuanced decision-making. To ensure coherence between modalities, a semantic alignment score is computed and integrated into the final classification through a meta-fusion strategy. In alignment with the United Nations Sustainable Development Goals (UN SDGs), the proposed framework supports SDG 9 (Industry, Innovation and Infrastructure) by advancing AI-driven tools for robust, scalable, and context-aware service infrastructure. Further, by enabling structured analysis of complaint narratives and visual context, it contributes to SDG 12 (Responsible Consumption and Production) by promoting more responsive product design and improved accountability in consumer services. We evaluate VALOR on a curated multimodal complaint dataset annotated with fine-grained aspect and severity labels, showing that it consistently outperforms baseline models, especially in complex complaint scenarios where information is distributed across text and images. This study underscores the value of multimodal interaction and expert validation in practical complaint understanding systems. Resources related to data and codes are available here: https://github.com/sarmistha-D/VALOR
- Abstract(参考訳): 既存の苦情分析へのアプローチは、つぶやきや製品レビューのような、一過性の短いコンテンツに大きく依存している。
この作業は、マルチモーダルでマルチターンのカスタマーサポートダイアログを活用することで、ユーザがテキストの苦情や視覚的証拠(スクリーンショット、製品写真など)を共有して、苦情の側面と深刻さのきめ細かい分類を可能にする。
本稿では,このマルチモーダル設定に適した,エキスパートルーティング付きバリデーション・アウェア・ラーナーであるVALORを紹介する。
大規模な生成モデルとChain-of-Thought (CoT) を用いたマルチエキスパート推論のセットアップを採用し、微妙な意思決定を可能にしている。
モダリティ間のコヒーレンスを確保するため、メタ融合戦略によりセマンティックアライメントスコアを計算し、最終分類に統合する。
国連持続可能な開発目標(UN SDG)に合わせて、提案されたフレームワークは、堅牢でスケーラブルでコンテキスト対応のサービスインフラストラクチャのためのAI駆動ツールを進化させることで、SDG 9(産業、イノベーション、インフラ)をサポートする。
さらに、不満話や視覚的文脈の構造化分析を可能にすることにより、より応答性の高い製品設計を促進し、消費者サービスにおける説明責任を向上させることで、SDG12(責任消費・生産)に寄与する。
VALORは微粒なアスペクトと重大なラベルを付加したキュレートされたマルチモーダル・クレーム・データセット上で評価し、特にテキストや画像間で情報が分散される複雑なクレーム・シナリオにおいて、ベースライン・モデルよりも一貫して優れていることを示す。
本研究は, 実用的苦情理解システムにおけるマルチモーダルインタラクションと専門家による検証の価値を裏付けるものである。
https://github.com/sarmistha-D/VALOR
関連論文リスト
- Multimodal Detection of Fake Reviews using BERT and ResNet-50 [0.0]
BERTでエンコードされたテキスト機能とResNet-50を用いて抽出された視覚機能を統合した,堅牢なマルチモーダルフェイクレビュー検出フレームワークを提案する。
実験結果から,マルチモーダルモデルは単調なベースラインよりも優れており,F1スコアが0.934であることが確認された。
本研究は,デジタル信頼の保護におけるマルチモーダル学習の重要性を実証し,コンテンツモデレーションにスケーラブルなソリューションを提供する。
論文 参考訳(メタデータ) (2025-10-24T01:24:53Z) - Scaling Beyond Context: A Survey of Multimodal Retrieval-Augmented Generation for Document Understanding [61.36285696607487]
文書理解は、財務分析から科学的発見への応用に不可欠である。
現在のアプローチでは、OCRベースのパイプラインがLarge Language Models(LLM)やネイティブのMultimodal LLMs(MLLM)に制限されている。
Retrieval-Augmented Generation (RAG)は、外部データの基底モデルを支援するが、文書のマルチモーダルな性質は、テキスト、テーブル、チャート、レイアウトを組み合わせることで、より高度なパラダイムを必要とする。
論文 参考訳(メタデータ) (2025-10-17T02:33:16Z) - OpinioRAG: Towards Generating User-Centric Opinion Highlights from Large-scale Online Reviews [12.338320566839483]
本稿では,大量のユーザレビューから得られた意見ハイライトの問題点について考察する。
既存のメソッドはスケールアップに失敗するか、パーソナライズされたニーズを見落としている汎用的で一大の要約を生成するかのいずれかです。
本稿では,RAGに基づくエビデンス検索とLCMを組み合わせた拡張性のあるトレーニングフリーフレームワークであるOpinioRAGを紹介する。
論文 参考訳(メタデータ) (2025-08-30T00:00:34Z) - CAL-RAG: Retrieval-Augmented Multi-Agent Generation for Content-Aware Layout Design [6.830055289299306]
CAL-RAGは、コンテンツ対応レイアウト生成のための検索拡張エージェントフレームワークである。
我々は、LangGraphを使ってフレームワークを実装し、セマンティック変数に富んだベンチマークで評価する。
その結果,検索強化とエージェント的多段階推論を組み合わせることで,拡張性,解釈性,高忠実度な解が得られることがわかった。
論文 参考訳(メタデータ) (2025-06-27T06:09:56Z) - DashCLIP: Leveraging multimodal models for generating semantic embeddings for DoorDash [0.12314765641075437]
画像テキストデータに対するコントラスト学習を通じて,ユニモーダルエンコーダとマルチモーダルエンコーダを整列させることにより,製品およびユーザクエリのための共同トレーニングフレームワークを導入する。
提案手法では,クエリエンコーダをLLM計算した関連データセットでトレーニングし,エンゲージメント履歴への依存を解消する。
パーソナライズされた広告レコメンデーションでは、デプロイ後のクリックスルー率と変換レートが大きく上昇し、主要なビジネス指標への影響を確認します。
論文 参考訳(メタデータ) (2025-03-18T20:38:31Z) - VisDoM: Multi-Document QA with Visually Rich Elements Using Multimodal Retrieval-Augmented Generation [100.06122876025063]
本稿では,マルチドキュメント設定でQAシステムを評価するために設計された,初の総合ベンチマークであるVisDoMBenchを紹介する。
視覚とテキストのRAGを同時に利用する新しいマルチモーダル検索拡張生成(RAG)手法であるVisDoMRAGを提案する。
論文 参考訳(メタデータ) (2024-12-14T06:24:55Z) - BabelBench: An Omni Benchmark for Code-Driven Analysis of Multimodal and Multistructured Data [61.936320820180875]
大規模言語モデル(LLM)は、様々な領域でますます重要になっている。
BabelBenchは、コード実行によるマルチモーダルなマルチ構造化データ管理におけるLLMの熟練度を評価する革新的なベンチマークフレームワークである。
BabelBenchの実験結果から,ChatGPT 4のような最先端モデルでさえ,大幅な改善の余地があることが示唆された。
論文 参考訳(メタデータ) (2024-10-01T15:11:24Z) - Exploiting Modality-Specific Features For Multi-Modal Manipulation
Detection And Grounding [54.49214267905562]
マルチモーダルな操作検出とグラウンド処理のためのトランスフォーマーベースのフレームワークを構築する。
本フレームワークは,マルチモーダルアライメントの能力を維持しながら,モダリティ特有の特徴を同時に探求する。
本稿では,グローバルな文脈的キューを各モーダル内に適応的に集約する暗黙的操作クエリ(IMQ)を提案する。
論文 参考訳(メタデータ) (2023-09-22T06:55:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。