論文の概要: Context Branching for LLM Conversations: A Version Control Approach to Exploratory Programming
- arxiv url: http://arxiv.org/abs/2512.13914v1
- Date: Mon, 15 Dec 2025 21:49:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-17 16:49:26.506562
- Title: Context Branching for LLM Conversations: A Version Control Approach to Exploratory Programming
- Title(参考訳): LLM会話のためのコンテキストブランチ:探索型プログラミングのためのバージョン管理アプローチ
- Authors: Bhargav Chickmagalur Nanjundappa, Spandan Maaheshwari,
- Abstract要約: 大規模言語モデル(LLM)は、ソフトウェア工学にとって不可欠なものとなっているが、その効果はマルチターン会話において著しく低下している。
LLMインタラクションにバージョン制御のセマンティクスを適用する会話管理システムであるContextBranchを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have become integral to software engineering workflows, yet their effectiveness degrades significantly in multi-turn conversations. Recent studies demonstrate an average 39% performance drop when instructions are delivered across multiple turns, with models making premature assumptions and failing to course correct (Laban et al., 2025). This degradation is particularly problematic in exploratory programming tasks where developers need to investigate alternative approaches without committing to a single path. Current solutions force users into a false dichotomy: continue in a context-polluted conversation where the LLM becomes increasingly confused, or start fresh and lose all accumulated context. We present ContextBranch, a conversation management system that applies version control semantics to LLM interactions. ContextBranch provides four core primitives--checkpoint, branch, switch, and inject--enabling users to capture conversation state, explore alternatives in isolation, and selectively merge insights. We evaluate ContextBranch through a controlled experiment with 30 software engineering scenarios featuring intentionally polluting explorations. Branched conversations achieved higher response quality compared to linear conversations, with large improvements in focus and context awareness. Benefits were concentrated in complex scenarios involving conceptually distant explorations. Branching reduced context size by 58.1% (31.0 to 13.0 messages), eliminating irrelevant exploratory content. Our work establishes conversation branching as a fundamental primitive for AI-assisted exploratory work, demonstrating that isolation prevents context pollution when exploring alternatives.
- Abstract(参考訳): 大規模言語モデル(LLM)は、ソフトウェア工学のワークフローに不可欠なものになっているが、その効果はマルチターン会話において著しく低下している。
近年の研究では、命令が複数回にまたがって配信されると平均39%のパフォーマンス低下が示され、モデルが未熟な仮定をし、コースが正しくない(Laban et al , 2025)。
この劣化は、開発者が単一のパスにコミットすることなく、代替アプローチを調査する必要がある探索的なプログラミングタスクにおいて特に問題となる。
現在のソリューションでは、ユーザを誤った二分法に強制する — LLMがますます混乱する状況にあるコンテキスト汚染された会話を継続する、あるいは新たに開始し、蓄積されたコンテキストをすべて失われる、といったものだ。
LLMインタラクションにバージョン制御のセマンティクスを適用する会話管理システムであるContextBranchを提案する。
ContextBranchは、4つのコアプリミティブ – チェックポイント、ブランチ、スイッチ、インジェクション – を提供する。
我々は、意図的な汚染調査を特徴とする30のソフトウェアエンジニアリングシナリオによる制御された実験を通してContextBranchを評価する。
分岐された会話は、線形会話よりも高い応答品質を実現し、フォーカスとコンテキスト認識を大きく改善した。
利益は概念的に遠い探検を含む複雑なシナリオに集中していた。
ブランチによってコンテキストサイズが58.1%削減された(31.0から13.0メッセージ)。
我々の研究は、AIによる探索作業の基本的なプリミティブとして会話の分岐を確立し、隔離が代替品を探索する際のコンテキスト汚染を防ぐことを実証している。
関連論文リスト
- Sculptor: Empowering LLMs with Cognitive Agency via Active Context Management [15.059686456324853]
大規模言語モデル(LLM)は、プロアクティブな干渉による長いコンテキストの処理において、大幅な性能劣化に悩まされる。
Sculptorは、LLMにコンテキストの断片化、要約、隠蔽、復元、正確な検索という3つのカテゴリのツールを装備するフレームワークである。
各種長文ベンチマークの実験的評価により、Sculptorは特定の訓練をしなくても性能を大幅に向上することが示された。
論文 参考訳(メタデータ) (2025-08-06T17:32:58Z) - Bridging Context Gaps: Leveraging Coreference Resolution for Long Contextual Understanding [29.129035086344143]
大規模言語モデル(LLM)の性能向上を目的としたLong Question Coreference Adaptation (LQCA) 手法を提案する。
このフレームワークは、長いコンテキストに合わせて調整されたコア参照解決に焦点を当てており、モデルが参照を効果的に識別し、管理することができる。
私たちのコードはhttps://github.com/OceannTwT/LQCA.comで公開されています。
論文 参考訳(メタデータ) (2024-10-02T15:39:55Z) - Adaptive Contrastive Decoding in Retrieval-Augmented Generation for Handling Noisy Contexts [24.5315425886482]
文脈の影響を効果的に活用するための適応型コントラスト復号法(ACD)を提案する。
ACDは、ベースラインよりもオープンドメインの質問応答タスクの改善を示している。
論文 参考訳(メタデータ) (2024-08-02T08:03:38Z) - Can large language models explore in-context? [87.49311128190143]
単純なマルチアームバンディット環境において,エージェントとして大規模言語モデルをデプロイする。
モデルが実質的な介入なしには、探索にしっかりと関わっていないことが分かっています。
論文 参考訳(メタデータ) (2024-03-22T17:50:43Z) - Reasoning in Conversation: Solving Subjective Tasks through Dialogue
Simulation for Large Language Models [56.93074140619464]
本稿では,対話シミュレーションによる主観的課題の解決に焦点を当てたRiC(Reasoning in Conversation)を提案する。
RiCのモチベーションは、チェーン・オブ・ソート・スタイルの合理性を提供するのではなく、対話をシミュレートすることで有用な文脈情報をマイニングすることである。
GPT-4、ChatGPT、OpenChatなど、APIベースのLLMとオープンソースのLLMの両方を12のタスクで評価する。
論文 参考訳(メタデータ) (2024-02-27T05:37:10Z) - Exploring Interaction Patterns for Debugging: Enhancing Conversational
Capabilities of AI-assistants [18.53732314023887]
大規模言語モデル(LLM)は、プログラマが様々なソフトウェア開発タスクの自然言語説明を得ることを可能にする。
LLMはしばしば十分な文脈なしに行動し、暗黙の仮定や不正確な反応を引き起こす。
本稿では,対話パターンと会話分析からインスピレーションを得て,デバッグのための対話型AIアシスタントRobinを設計する。
論文 参考訳(メタデータ) (2024-02-09T07:44:27Z) - Thread of Thought Unraveling Chaotic Contexts [133.24935874034782]
思考のスレッド(ThoT)戦略は、人間の認知プロセスからインスピレーションを得ている。
実験では、他のプロンプト技術と比較して、ThoTは推論性能を著しく改善する。
論文 参考訳(メタデータ) (2023-11-15T06:54:44Z) - In-Context Learning for Few-Shot Dialogue State Tracking [55.91832381893181]
In-context (IC) Learning framework for few-shot dialogue state tracking (DST)を提案する。
大規模な事前訓練言語モデル(LM)は、テストインスタンスといくつかの注釈付き例を入力として取り、パラメータの更新なしに直接対話状態をデコードする。
これにより、LMは、新しいドメインやシナリオに適応する際の、以前の数ショットのDST作業と比べて、より柔軟でスケーラブルになります。
論文 参考訳(メタデータ) (2022-03-16T11:58:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。