論文の概要: Yes FLoReNce, I Will Do Better Next Time! Agentic Feedback Reasoning for Humorous Meme Detection
- arxiv url: http://arxiv.org/abs/2601.07232v1
- Date: Mon, 12 Jan 2026 06:09:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-13 19:08:01.236544
- Title: Yes FLoReNce, I Will Do Better Next Time! Agentic Feedback Reasoning for Humorous Meme Detection
- Title(参考訳): はいFLoReNce, I will improve next time! Agentic Feedback Reasoning for Humorous Meme Detection
- Authors: Olivia Shanhong Liu, Pai Chet Ng, De Wen Soh, Konstantinos N. Plataniotis,
- Abstract要約: FLoReNceは、ミーム理解を学習時のクローズドループプロセス、推論時のオープンループプロセスとして扱う。
PrideMMデータセットでは、FLoReNceは静的なマルチモーダルベースラインよりも予測性能と説明品質の両方を改善している。
- 参考スコア(独自算出の注目度): 30.939512522367945
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Humorous memes blend visual and textual cues to convey irony, satire, or social commentary, posing unique challenges for AI systems that must interpret intent rather than surface correlations. Existing multimodal or prompting-based models generate explanations for humor but operate in an open loop,lacking the ability to critique or refine their reasoning once a prediction is made. We propose FLoReNce, an agentic feedback reasoning framework that treats meme understanding as a closed-loop process during learning and an open-loop process during inference. In the closed loop, a reasoning agent is critiqued by a judge; the error and semantic feedback are converted into control signals and stored in a feedback-informed, non-parametric knowledge base. At inference, the model retrieves similar judged experiences from this KB and uses them to modulate its prompt, enabling better, self-aligned reasoning without finetuning. On the PrideMM dataset, FLoReNce improves both predictive performance and explanation quality over static multimodal baselines, showing that feedback-regulated prompting is a viable path to adaptive meme humor understanding.
- Abstract(参考訳): ユーモラスミームは、視覚とテキストの手がかりを混ぜ合わせて、皮肉、風刺、社会的なコメントを伝え、表面相関ではなく意図を解釈しなければならないAIシステムに固有の課題を提起する。
既存のマルチモーダルモデルやプロンプトベースのモデルはユーモアの説明を生成するが、オープンループで動作し、予測がなされたらその推論を批判したり洗練したりする能力を失う。
本稿では,学習中のミーム理解をクローズドループプロセス,推論時のオープンループプロセスとして扱うエージェントフィードバック推論フレームワークであるFLoReNceを提案する。
クローズドループでは、推論エージェントを裁判官が批判し、エラーとセマンティックフィードバックを制御信号に変換し、フィードバックインフォームドされた非パラメトリック知識ベースに格納する。
推論では、このKBから同様の判断された経験を抽出し、プロンプトを調整し、微調整なしでより優れた自己整合推論を可能にする。
PrideMMデータセット上では、FLoReNceは静的なマルチモーダルベースラインよりも予測性能と説明品質の両方を改善し、フィードバック制御プロンプトが適応的なミームユーモア理解への有効な経路であることを示している。
関連論文リスト
- Analyzing Reasoning Consistency in Large Multimodal Models under Cross-Modal Conflicts [74.47786985522762]
テキスト慣性(textual inertia)と呼ばれる重要な障害モードを特定し、矛盾する視覚的証拠を無視しながら、モデルは間違ったテキストに盲目的に固執する傾向がある。
本稿では,多種多様なLMMの推論連鎖に摂動を構造的に注入するLogicGraph摂動プロトコルを提案する。
その結果,10%未満の症例で自己修正が成功し,主に視覚的テキスト誤りの伝播に寄与することが判明した。
論文 参考訳(メタデータ) (2026-01-07T16:39:34Z) - COMPASS: Context-Modulated PID Attention Steering System for Hallucination Mitigation [2.1521364454860525]
モデルベースのフィードバックループをデコードに直接埋め込む軽量で解釈可能な制御フレームワークを導入する。
本研究では,PIDコントローラが動的にアテンションヘッドを変調して,リトレーニングやマルチパス復号を行うことなく,現実の一貫性を維持することを示す。
論文 参考訳(メタデータ) (2025-11-05T05:30:28Z) - The Mirror Loop: Recursive Non-Convergence in Generative Reasoning Systems [0.0]
外部からのフィードバックのない再帰的な自己評価は、進歩よりもむしろ改革をもたらすことが多い。
3つのモデル(OpenAI GPT-4o-mini, Anthropic Claude 3 Haiku, Google Gemini 2.0 Flash)と4つのタスクファミリー(パラメータ、コード、説明、リフレクション)にまたがる144の推論シーケンスについて検討する。
我々はこれを、生成的推論における自己補正の構造的限界の証拠として解釈する。
論文 参考訳(メタデータ) (2025-10-23T07:53:26Z) - FIRE: Faithful Interpretable Recommendation Explanations [2.6499018693213316]
推薦システムにおける自然言語の説明は、しばしばレビュー生成タスクとしてフレーム化される。
FireはSHAPベースの特徴属性と構造化されたプロンプト駆動言語生成を組み合わせた軽量で解釈可能なフレームワークである。
この結果から,FIREは競争推奨精度を達成するだけでなく,アライメント,構造,忠実度といった重要な次元に沿った説明品質を著しく向上することが示された。
論文 参考訳(メタデータ) (2025-08-07T10:11:02Z) - Contextual Feedback Loops: Amplifying Deep Reasoning with Iterative Top-Down Feedback [2.404163279345609]
提案するEmphContextual Feedback Loops (CFLs) は,従来のレイヤにトップダウンコンテキストを再注入して反復的な改善を行う軽量なメカニズムである。
CFLはフィードフォワードとフィードバック駆動推論を統合することで、トップレベルのアウトプットが低レベルの機能を継続的に洗練します。
CIFAR-10、ImageNet-1k、SpeechCommands、GLUE SST-2などのタスクで一貫したゲインを得る。
論文 参考訳(メタデータ) (2024-12-23T17:36:51Z) - Context-Parametric Inversion: Why Instruction Finetuning Can Worsen Context Reliance [68.56701216210617]
In-principleでは、モデルが命令の微調整後にユーザコンテキストに適応することを期待する。
インストラクションチューニング中、知識の衝突によるコンテキスト依存は、当初期待通りに増大するが、徐々に減少する。
論文 参考訳(メタデータ) (2024-10-14T17:57:09Z) - RLVF: Learning from Verbal Feedback without Overgeneralization [94.19501420241188]
本稿では,このような過度な一般化を伴わずに,言語フィードバックを取り入れることの課題について検討する。
制約付き選好最適化(C3PO)を用いた新しい文脈的批評手法を開発した。
提案手法は,他の文脈に対する既存行動を維持しながら,関連するシナリオに対して効果的な言語フィードバックを適用する。
論文 参考訳(メタデータ) (2024-02-16T18:50:24Z) - REFINER: Reasoning Feedback on Intermediate Representations [47.36251998678097]
中間推論を生成するための言語モデルを微調整するフレームワークであるREFINERを紹介する。
REFINERは、推論に対する自動フィードバックを提供する批評家モデルと対話することで機能する。
経験的評価は、同等のスケールのベースラインLMよりも大幅に改善された。
論文 参考訳(メタデータ) (2023-04-04T15:57:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。