論文の概要: Interactive Reasoning: Visualizing and Controlling Chain-of-Thought Reasoning in Large Language Models
- arxiv url: http://arxiv.org/abs/2506.23678v1
- Date: Mon, 30 Jun 2025 10:00:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:54.006517
- Title: Interactive Reasoning: Visualizing and Controlling Chain-of-Thought Reasoning in Large Language Models
- Title(参考訳): 対話型推論:大規模言語モデルにおける連鎖推論の可視化と制御
- Authors: Rock Yuren Pang, K. J. Kevin Feng, Shangbin Feng, Chu Li, Weijia Shi, Yulia Tsvetkov, Jeffrey Heer, Katharina Reinecke,
- Abstract要約: トピックの階層構造としてチェーンオブ思考出力を可視化するインタラクション設計であるInteractive Reasoningを導入する。
私たちは、不確実なトレードオフに直面したAIによる意思決定のプロトタイプであるHippoで、インタラクティブな推論を実装しています。
- 参考スコア(独自算出の注目度): 54.85405423240165
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The output quality of large language models (LLMs) can be improved via "reasoning": generating segments of chain-of-thought (CoT) content to further condition the model prior to producing user-facing output. While these chains contain valuable information, they are verbose and lack explicit organization, making them tedious to review. Moreover, they lack opportunities for user feedback, such as to remove unwanted considerations, add desired ones, or clarify unclear assumptions. We introduce Interactive Reasoning, an interaction design that visualizes chain-of-thought outputs as a hierarchy of topics and enables user review and modification. We implement interactive reasoning in Hippo, a prototype for AI-assisted decision making in the face of uncertain trade-offs. In a user study with 16 participants, we find that interactive reasoning in Hippo allows users to quickly identify and interrupt erroneous generations, efficiently steer the model towards customized responses, and better understand both model reasoning and model outputs. Our work contributes to a new paradigm that incorporates user oversight into LLM reasoning processes.
- Abstract(参考訳): 大規模な言語モデル(LLM)の出力品質は、"推論"によって改善することができる。
これらのチェーンには貴重な情報が含まれているが、冗長で明確な組織がないため、レビューするのは面倒だ。
さらに、望ましくない考慮を取り除いたり、望ましいものを追加したり、不明瞭な仮定を明確にしたりするといった、ユーザからのフィードバックの機会も欠如している。
トピックの階層構造としてチェーンオブ思考出力を可視化し,ユーザレビューと修正を可能にするインタラクション設計であるInteractive Reasoningを導入する。
私たちは、不確実なトレードオフに直面したAIによる意思決定のプロトタイプであるHippoで、インタラクティブな推論を実装しています。
16人の参加者によるユーザスタディにおいて、Hippoのインタラクティブ推論は、ユーザが誤った世代を素早く識別し、割り込みし、モデルをカスタマイズされた応答に向けて効率的に操り、モデル推論とモデル出力の両方をよりよく理解できるようにする。
我々の研究は、ユーザーの監視をLCM推論プロセスに組み込む新しいパラダイムに寄与する。
関連論文リスト
- Predicting thinking time in Reasoning models [42.58699486487709]
推論モデルは長く隠れた思考の連鎖を生み出します。
ユーザーは、答えを返す前にモデルが推論にどれくらいの時間を費やすかについての洞察がほとんどない。
論文 参考訳(メタデータ) (2025-06-29T15:01:01Z) - PixelThink: Towards Efficient Chain-of-Pixel Reasoning [70.32510083790069]
PixelThinkは、外部から推定されるタスクの難しさと内部で測定されたモデルの不確実性を統合する、シンプルで効果的なスキームである。
シーンの複雑さと予測信頼度に応じて推論の長さを圧縮することを学ぶ。
実験により,提案手法は推論効率と全体セグメンテーション性能の両方を改善した。
論文 参考訳(メタデータ) (2025-05-29T17:55:49Z) - VAGUE: Visual Contexts Clarify Ambiguous Expressions [15.140825578254324]
目的のための視覚的コンテキストを統合するマルチモーダルAIシステムの能力を評価するベンチマークであるVAGUEを紹介する。
VAGUEは1.6Kの曖昧な文体表現で構成され、それぞれに画像と複数選択の解釈が組み合わされている。
我々の実験によると、既存のマルチモーダルAIモデルは話者の真の意図を推測するのに苦労している。
論文 参考訳(メタデータ) (2024-11-21T14:01:42Z) - Visual Chain of Thought: Bridging Logical Gaps with Multimodal
Infillings [61.04460792203266]
本稿では, 逐次データ内の論理的ギャップを埋めるために, 視覚言語による接地を促進させる, チェーン・オブ・シントを利用する新しい手法であるVCoTを紹介する。
本手法は,下流タスクの論理的ギャップを低減するために,一貫した情報と新しい情報を加える合成マルチモーダル埋め込みを生成するために視覚誘導を用いる。
論文 参考訳(メタデータ) (2023-05-03T17:58:29Z) - Explain, Edit, and Understand: Rethinking User Study Design for
Evaluating Model Explanations [97.91630330328815]
我々はクラウドソーシング研究を行い、真偽のホテルレビューと偽のホテルレビューを区別するために訓練された詐欺検出モデルと対話する。
単語の線形バッグモデルでは、トレーニング中に特徴係数にアクセスした参加者は、非説明制御と比較して、テストフェーズにおいてモデルの信頼性が大幅に低下する可能性があることを観察する。
論文 参考訳(メタデータ) (2021-12-17T18:29:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。