論文の概要: Context Branching for LLM Conversations: A Version Control Approach to Exploratory Programming
- arxiv url: http://arxiv.org/abs/2512.13914v1
- Date: Mon, 15 Dec 2025 21:49:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-17 16:49:26.506562
- Title: Context Branching for LLM Conversations: A Version Control Approach to Exploratory Programming
- Title(参考訳): LLM会話のためのコンテキストブランチ:探索型プログラミングのためのバージョン管理アプローチ
- Authors: Bhargav Chickmagalur Nanjundappa, Spandan Maaheshwari,
- Abstract要約: 大規模言語モデル(LLM)は、ソフトウェア工学にとって不可欠なものとなっているが、その効果はマルチターン会話において著しく低下している。
LLMインタラクションにバージョン制御のセマンティクスを適用する会話管理システムであるContextBranchを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have become integral to software engineering workflows, yet their effectiveness degrades significantly in multi-turn conversations. Recent studies demonstrate an average 39% performance drop when instructions are delivered across multiple turns, with models making premature assumptions and failing to course correct (Laban et al., 2025). This degradation is particularly problematic in exploratory programming tasks where developers need to investigate alternative approaches without committing to a single path. Current solutions force users into a false dichotomy: continue in a context-polluted conversation where the LLM becomes increasingly confused, or start fresh and lose all accumulated context. We present ContextBranch, a conversation management system that applies version control semantics to LLM interactions. ContextBranch provides four core primitives--checkpoint, branch, switch, and inject--enabling users to capture conversation state, explore alternatives in isolation, and selectively merge insights. We evaluate ContextBranch through a controlled experiment with 30 software engineering scenarios featuring intentionally polluting explorations. Branched conversations achieved higher response quality compared to linear conversations, with large improvements in focus and context awareness. Benefits were concentrated in complex scenarios involving conceptually distant explorations. Branching reduced context size by 58.1% (31.0 to 13.0 messages), eliminating irrelevant exploratory content. Our work establishes conversation branching as a fundamental primitive for AI-assisted exploratory work, demonstrating that isolation prevents context pollution when exploring alternatives.
- Abstract(参考訳): 大規模言語モデル(LLM)は、ソフトウェア工学のワークフローに不可欠なものになっているが、その効果はマルチターン会話において著しく低下している。
近年の研究では、命令が複数回にまたがって配信されると平均39%のパフォーマンス低下が示され、モデルが未熟な仮定をし、コースが正しくない(Laban et al , 2025)。
この劣化は、開発者が単一のパスにコミットすることなく、代替アプローチを調査する必要がある探索的なプログラミングタスクにおいて特に問題となる。
現在のソリューションでは、ユーザを誤った二分法に強制する — LLMがますます混乱する状況にあるコンテキスト汚染された会話を継続する、あるいは新たに開始し、蓄積されたコンテキストをすべて失われる、といったものだ。
LLMインタラクションにバージョン制御のセマンティクスを適用する会話管理システムであるContextBranchを提案する。
ContextBranchは、4つのコアプリミティブ – チェックポイント、ブランチ、スイッチ、インジェクション – を提供する。
我々は、意図的な汚染調査を特徴とする30のソフトウェアエンジニアリングシナリオによる制御された実験を通してContextBranchを評価する。
分岐された会話は、線形会話よりも高い応答品質を実現し、フォーカスとコンテキスト認識を大きく改善した。
利益は概念的に遠い探検を含む複雑なシナリオに集中していた。
ブランチによってコンテキストサイズが58.1%削減された(31.0から13.0メッセージ)。
我々の研究は、AIによる探索作業の基本的なプリミティブとして会話の分岐を確立し、隔離が代替品を探索する際のコンテキスト汚染を防ぐことを実証している。
関連論文リスト
- ContextBench: A Benchmark for Context Retrieval in Coding Agents [26.158308735620405]
コーディングエージェントにおけるコンテキスト検索のプロセス指向評価であるContextBenchを紹介する。
ContextBenchは、8つのプログラミング言語にわたる66のリポジトリから1,136のイシュー解決タスクで構成されている。
論文 参考訳(メタデータ) (2026-02-05T17:10:26Z) - Sculptor: Empowering LLMs with Cognitive Agency via Active Context Management [15.059686456324853]
大規模言語モデル(LLM)は、プロアクティブな干渉による長いコンテキストの処理において、大幅な性能劣化に悩まされる。
Sculptorは、LLMにコンテキストの断片化、要約、隠蔽、復元、正確な検索という3つのカテゴリのツールを装備するフレームワークである。
各種長文ベンチマークの実験的評価により、Sculptorは特定の訓練をしなくても性能を大幅に向上することが示された。
論文 参考訳(メタデータ) (2025-08-06T17:32:58Z) - KnowTrace: Bootstrapping Iterative Retrieval-Augmented Generation with Structured Knowledge Tracing [64.38243807002878]
我々は、大規模言語モデルにおけるコンテキスト過負荷を軽減するためのエレガントなRAGフレームワークであるKnowTraceを紹介する。
KnowTraceは、必要な知識三つ子を自律的に追跡して、入力された質問に関連する特定の知識グラフを整理する。
3つのマルチホップ質問応答ベンチマークで、既存のメソッドを一貫して上回っている。
論文 参考訳(メタデータ) (2025-05-26T17:22:20Z) - END: Early Noise Dropping for Efficient and Effective Context Denoising [60.24648712022382]
大規模言語モデル(LLM)は、幅広い自然言語処理タスクにおいて顕著な性能を示している。
彼らはしばしば、出力品質を低下させる入力シーケンスにおける無関係またはノイズの文脈に気を散らされる。
我々は,LLMの微調整を必要とせず,この問題を緩和するための新しい手法であるEarly Noise Dropping (textscEND)を紹介した。
論文 参考訳(メタデータ) (2025-02-26T08:07:17Z) - Bridging Context Gaps: Leveraging Coreference Resolution for Long Contextual Understanding [29.129035086344143]
大規模言語モデル(LLM)の性能向上を目的としたLong Question Coreference Adaptation (LQCA) 手法を提案する。
このフレームワークは、長いコンテキストに合わせて調整されたコア参照解決に焦点を当てており、モデルが参照を効果的に識別し、管理することができる。
私たちのコードはhttps://github.com/OceannTwT/LQCA.comで公開されています。
論文 参考訳(メタデータ) (2024-10-02T15:39:55Z) - Adaptive Contrastive Decoding in Retrieval-Augmented Generation for Handling Noisy Contexts [24.5315425886482]
文脈の影響を効果的に活用するための適応型コントラスト復号法(ACD)を提案する。
ACDは、ベースラインよりもオープンドメインの質問応答タスクの改善を示している。
論文 参考訳(メタデータ) (2024-08-02T08:03:38Z) - Enhancing Contextual Understanding in Large Language Models through Contrastive Decoding [9.2433070542025]
大規模言語モデル(LLM)は、テキスト生成時に入力コンテキストを不適切に統合する傾向がある。
本稿では, 逆無関係なパスを負のサンプルとして, コントラストデコーディングを統合する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-05-04T20:38:41Z) - Can large language models explore in-context? [87.49311128190143]
単純なマルチアームバンディット環境において,エージェントとして大規模言語モデルをデプロイする。
モデルが実質的な介入なしには、探索にしっかりと関わっていないことが分かっています。
論文 参考訳(メタデータ) (2024-03-22T17:50:43Z) - Reasoning in Conversation: Solving Subjective Tasks through Dialogue
Simulation for Large Language Models [56.93074140619464]
本稿では,対話シミュレーションによる主観的課題の解決に焦点を当てたRiC(Reasoning in Conversation)を提案する。
RiCのモチベーションは、チェーン・オブ・ソート・スタイルの合理性を提供するのではなく、対話をシミュレートすることで有用な文脈情報をマイニングすることである。
GPT-4、ChatGPT、OpenChatなど、APIベースのLLMとオープンソースのLLMの両方を12のタスクで評価する。
論文 参考訳(メタデータ) (2024-02-27T05:37:10Z) - Exploring Interaction Patterns for Debugging: Enhancing Conversational
Capabilities of AI-assistants [18.53732314023887]
大規模言語モデル(LLM)は、プログラマが様々なソフトウェア開発タスクの自然言語説明を得ることを可能にする。
LLMはしばしば十分な文脈なしに行動し、暗黙の仮定や不正確な反応を引き起こす。
本稿では,対話パターンと会話分析からインスピレーションを得て,デバッグのための対話型AIアシスタントRobinを設計する。
論文 参考訳(メタデータ) (2024-02-09T07:44:27Z) - Thread of Thought Unraveling Chaotic Contexts [133.24935874034782]
思考のスレッド(ThoT)戦略は、人間の認知プロセスからインスピレーションを得ている。
実験では、他のプロンプト技術と比較して、ThoTは推論性能を著しく改善する。
論文 参考訳(メタデータ) (2023-11-15T06:54:44Z) - In-Context Learning for Few-Shot Dialogue State Tracking [55.91832381893181]
In-context (IC) Learning framework for few-shot dialogue state tracking (DST)を提案する。
大規模な事前訓練言語モデル(LM)は、テストインスタンスといくつかの注釈付き例を入力として取り、パラメータの更新なしに直接対話状態をデコードする。
これにより、LMは、新しいドメインやシナリオに適応する際の、以前の数ショットのDST作業と比べて、より柔軟でスケーラブルになります。
論文 参考訳(メタデータ) (2022-03-16T11:58:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。