論文の概要: Funny or Persuasive, but Not Both: Evaluating Fine-Grained Multi-Concept Control in LLMs
- arxiv url: http://arxiv.org/abs/2601.18483v1
- Date: Mon, 26 Jan 2026 13:36:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.848202
- Title: Funny or Persuasive, but Not Both: Evaluating Fine-Grained Multi-Concept Control in LLMs
- Title(参考訳): ファニーか説得力はあるが両方ではない: LLMにおける微粒化多概念制御の評価
- Authors: Arya Labroo, Ivaxi Sheth, Vyas Raina, Amaani Ahmed, Mario Fritz,
- Abstract要約: 本稿では,シングルコンセプトシナリオとデュアルコンセプトシナリオの両方に対して,きめ細かい制御性の評価フレームワークを提案する。
選択された概念は原則として分離可能であるべきですが、デュアルコンセプト設定ではパフォーマンスが低下することがよくあります。
- 参考スコア(独自算出の注目度): 36.732433496447605
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) offer strong generative capabilities, but many applications require explicit and \textit{fine-grained} control over specific textual concepts, such as humor, persuasiveness, or formality. Prior approaches in prompting and representation engineering can provide coarse or single-attribute control, but systematic evaluation of multi-attribute settings remains limited. We introduce an evaluation framework for fine-grained controllability for both single- and dual-concept scenarios, focusing on linguistically distinct concept pairs (e.g., persuasiveness vs.~humor). Surprisingly, across multiple LLMs and generative tasks, we find that performance often drops in the dual-concept setting, even though the chosen concepts should in principle be separable. This reveals a fundamental limitation of naive prompting-based control: models struggle with compositionality even when concepts are intuitively independent. Our framework provides systematic evidence of this gap and offers a principled approach for measuring the ability of future methods for multi-concept control.
- Abstract(参考訳): 大きな言語モデル (LLM) は強力な生成能力を提供するが、多くのアプリケーションはユーモア、説得性、形式性などの特定のテキスト概念に対して明示的かつ \textit{fine-grained} な制御を必要とする。
事前のプロンプトおよび表現工学のアプローチでは、粗いあるいは単一属性制御が可能であるが、マルチ属性設定の体系的評価は限られている。
本稿では,言語学的に異なる概念ペア(例えば,説得性対...噂)に焦点を当てた,単一概念シナリオと二重概念シナリオの両方のきめ細かい制御性評価フレームワークを提案する。
意外なことに、複数のLLMや生成タスクにおいて、選択された概念は原則として分離可能であるとしても、性能が二重概念設定で低下することが少なくない。
モデルは直感的に独立した概念であっても構成性に苦しむ。
本フレームワークは,このギャップの体系的な証拠を提供し,マルチコンセプト制御のための将来の手法の能力を測定するための原則的アプローチを提供する。
関連論文リスト
- Soft Thinking: Unlocking the Reasoning Potential of LLMs in Continuous Concept Space [62.54887038032942]
ソフトシンキング(Soft Thinking)は、ソフトで抽象的な概念トークンを生成することによって、人間のような「ソフト」推論をエミュレートする訓練不要な手法である。
これらの概念トークンは、連続的な概念空間を形成するトークン埋め込みの確率重み付き混合によって生成される。
本質的に、生成された概念トークンは関連する離散トークンから複数の意味をカプセル化し、暗黙的に様々な推論経路を探索する。
論文 参考訳(メタデータ) (2025-05-21T17:29:15Z) - Concept Based Continuous Prompts for Interpretable Text Classification [18.821639956791213]
本稿では、連続的なプロンプトを人間可読な概念に分解して解釈する枠組みを提案する。
我々は、GPT-4oを用いて概念プールを生成し、差別的で代表的な潜在的候補概念を選択する。
実験により,本フレームワークは従来のPチューニングや単語ベースアプローチと同じような結果が得られることが示された。
論文 参考訳(メタデータ) (2024-12-02T15:56:08Z) - A Concept-Based Explainability Framework for Large Multimodal Models [52.37626977572413]
本稿では,トークン表現に適用した辞書学習に基づくアプローチを提案する。
これらの概念は、視覚とテキストの両方に意味論的に根ざしていることを示す。
抽出したマルチモーダル概念は,テストサンプルの表現の解釈に有用であることを示す。
論文 参考訳(メタデータ) (2024-06-12T10:48:53Z) - Cantor: Inspiring Multimodal Chain-of-Thought of MLLM [83.6663322930814]
視覚的コンテキスト獲得と論理的推論の集約は、視覚的推論タスクに取り組む上で重要であると我々は主張する。
我々はCantorと呼ばれる革新的なマルチモーダルCoTフレームワークを提案し、その特徴は知覚決定アーキテクチャである。
提案手法の有効性を実証し,マルチモーダルCoT性能の大幅な向上を示した。
論文 参考訳(メタデータ) (2024-04-24T17:59:48Z) - MC$^2$: Multi-concept Guidance for Customized Multi-concept Generation [59.00909718832648]
マルチコンセプトカスタマイズのための新しいアプローチであるMC$2$を提案する。
視覚的およびテキスト的トークン間の注意重みを適応的に補正することにより、画像領域が関連概念と正確に一致することを保証する。
MC$2$は、即時参照アライメントの観点からトレーニングベースの手法より優れていることを示す実験である。
論文 参考訳(メタデータ) (2024-04-08T07:59:04Z) - DDCoT: Duty-Distinct Chain-of-Thought Prompting for Multimodal Reasoning
in Language Models [28.712359821231182]
大規模言語モデル(LLM)は、思考の連鎖(CoT)を利用して人間の思考を模倣することによって、言語モダリティの多段階的推論において顕著な進歩を遂げた。
これらの進歩をマルチモーダルな文脈に移すことは、労働集約的アノテーションの非現実的な必要性に限らず、より高い課題をもたらす。
本研究では,複数モーダリティを推論に組み込んだDDCoTプロンプトを提案する。
論文 参考訳(メタデータ) (2023-10-25T08:03:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。