論文の概要: Instruction-based Time Series Editing
- arxiv url: http://arxiv.org/abs/2508.01504v1
- Date: Sat, 02 Aug 2025 22:03:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:21.908955
- Title: Instruction-based Time Series Editing
- Title(参考訳): 授業に基づく時系列編集
- Authors: Jiaxing Qiu, Dongliang Guo, Brynne Sullivan, Teague R. Henry, Tom Hartvigsen,
- Abstract要約: 時系列編集では、ある時系列のプロパティを変更せずに変更することを目的としている。
既存の拡散ベースのエディタは、厳密で定義済みの属性ベクトルを条件として依存し、サンプリングを通じてオール・オー・ナッシングの編集を生成する。
Instruction-based Time Series Editingでは、ユーザが自然言語を使って意図した編集を指定できる。
次に、最初の命令ベースの時系列エディタであるInstructTimeを紹介します。
- 参考スコア(独自算出の注目度): 1.8175282137722093
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In time series editing, we aim to modify some properties of a given time series without altering others. For example, when analyzing a hospital patient's blood pressure, we may add a sudden early drop and observe how it impacts their future while preserving other conditions. Existing diffusion-based editors rely on rigid, predefined attribute vectors as conditions and produce all-or-nothing edits through sampling. This attribute- and sampling-based approach limits flexibility in condition format and lacks customizable control over editing strength. To overcome these limitations, we introduce Instruction-based Time Series Editing, where users specify intended edits using natural language. This allows users to express a wider range of edits in a more accessible format. We then introduce InstructTime, the first instruction-based time series editor. InstructTime takes in time series and instructions, embeds them into a shared multi-modal representation space, then decodes their embeddings to generate edited time series. By learning a structured multi-modal representation space, we can easily interpolate between embeddings to achieve varying degrees of edit. To handle local and global edits together, we propose multi-resolution encoders. In our experiments, we use synthetic and real datasets and find that InstructTime is a state-of-the-art time series editor: InstructTime achieves high-quality edits with controllable strength, can generalize to unseen instructions, and can be easily adapted to unseen conditions through few-shot learning.
- Abstract(参考訳): 時系列編集では、ある時系列のプロパティを変更せずに変更することを目的としている。
例えば、患者の血圧を分析する際には、突然の早期降下を加えて、他の状態を維持しながら、それが彼らの将来に与える影響を観察することができる。
既存の拡散ベースのエディタは、厳密で定義済みの属性ベクトルを条件として依存し、サンプリングを通じてオール・オー・ナッシングの編集を生成する。
この属性とサンプリングベースのアプローチは条件フォーマットの柔軟性を制限し、編集強度をカスタマイズできない。
これらの制限を克服するために、インストラクションベースの時系列編集を導入し、ユーザが自然言語を使って意図した編集を指定できるようにする。
これにより、よりアクセスしやすいフォーマットで、より広い範囲の編集を表現できる。
次に、最初の命令ベースの時系列エディタであるInstructTimeを紹介します。
InstructTimeは時系列と命令を取り込み、それらを共有マルチモーダル表現空間に埋め込み、その埋め込みをデコードして編集された時系列を生成する。
構造化マルチモーダル表現空間を学習することにより、埋め込み間で容易に補間でき、編集の度合いが変化する。
ローカルな編集とグローバルな編集を同時に行うために,マルチレゾリューションエンコーダを提案する。
InstructTimeは、制御可能な強度で高品質な編集を実現し、目に見えない命令に一般化することができ、数ショットの学習により、目に見えない条件に容易に適応することができます。
関連論文リスト
- How to Unlock Time Series Editing? Diffusion-Driven Approach with Multi-Grained Control [28.81619544175742]
時系列編集(TSE)は、時間的コヒーレンスを維持しながら正確な修正を行う。
我々は、さまざまなタイプの制約をまたいだ同時かつ柔軟な制御を可能にするために、CocktailEditフレームワークを導入しました。
論文 参考訳(メタデータ) (2025-06-05T17:32:00Z) - Beyond Editing Pairs: Fine-Grained Instructional Image Editing via Multi-Scale Learnable Regions [20.617718631292696]
我々は、広く利用可能な膨大なテキストイメージ対を利用する命令駆動画像編集のための新しいパラダイムを開発する。
本手法では,編集プロセスのローカライズとガイドを行うために,マルチスケールの学習可能な領域を導入する。
画像とそのテキスト記述のアライメントを監督・学習として扱い,タスク固有の編集領域を生成することにより,高忠実で高精度かつ命令一貫性のある画像編集を実現する。
論文 参考訳(メタデータ) (2025-05-25T22:40:59Z) - FireEdit: Fine-grained Instruction-based Image Editing via Region-aware Vision Language Model [54.693572837423226]
FireEditは、Region対応のVLMを利用する、革新的なインストラクションベースの画像編集フレームワークである。
FireEditは、ユーザの指示を正確に理解し、編集プロセスの効果的な制御を保証するように設計されている。
提案手法は,最先端の命令ベース画像編集手法を超越した手法である。
論文 参考訳(メタデータ) (2025-03-25T16:59:42Z) - AnyEdit: Edit Any Knowledge Encoded in Language Models [69.30638272162267]
大規模言語モデル(LLM)のための新しい自動回帰編集パラダイムであるAnyEditを提案する。
長い形式の知識を逐次チャンクに分解し、各チャンク内のキートークンを反復的に編集し、一貫性と正確な出力を保証する。
UnKEBench、AKEW、そして我々の長文の多様な知識のための新しいEditEverythingデータセットを含むベンチマークでは、強いベースラインを21.5%上回っている。
論文 参考訳(メタデータ) (2025-02-08T16:18:37Z) - VIA: Unified Spatiotemporal Video Adaptation Framework for Global and Local Video Editing [91.60658973688996]
我々は,グローバルなローカルビデオ編集のための統合ビデオ適応フレームワークであるVIAを導入し,一貫したビデオ編集の限界を推し進める。
本研究では,各フレーム内の局所的な一貫性を確保するため,事前学習した画像編集モデルに適応するテスト時間編集適応を設計した。
また,VIAは長時間の映像編集を一貫した時間で行うことができ,ビデオ編集作業が長続きする可能性を秘めていることを示す。
論文 参考訳(メタデータ) (2024-06-18T17:51:37Z) - InstructEdit: Instruction-based Knowledge Editing for Large Language Models [39.2147118489123]
InstructEditと呼ばれる命令ベースの編集技術を開発し、簡単な命令を使って様々なタスクパフォーマンスへのエディタの適応を容易にする。
予期せぬタスクを含む実験は、InstructEditが以前の強いベースラインを一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2024-02-25T15:46:33Z) - MagicStick: Controllable Video Editing via Control Handle Transformations [49.29608051543133]
MagicStickは、抽出した内部制御信号の変換を利用してビデオプロパティを編集する、制御可能なビデオ編集方法である。
統合フレームワークにおける多数の実例について実験を行った。
また、形状対応テキストベースの編集や手作り動画生成と比較し、従来の作品よりも優れた時間的一貫性と編集能力を示した。
論文 参考訳(メタデータ) (2023-12-05T17:58:06Z) - CoEdIT: Text Editing by Task-Specific Instruction Tuning [18.824571167583432]
CoEdIT (CoEdIT) は、テキスト編集システムである。
所望のテキストの属性を指定するユーザから命令を受け取り、編集されたテキストを出力する。
テキスト編集のためのタスク固有の命令の多種多様なコレクションに基づいて,大規模言語モデルを提案する。
論文 参考訳(メタデータ) (2023-05-17T00:05:24Z) - EditGAN: High-Precision Semantic Image Editing [120.49401527771067]
EditGANは高品質で高精度なセマンティック画像編集のための新しい手法である。
EditGANは前例のない細部と自由度で画像を操作可能であることを示す。
また、複数の編集を組み合わせることも簡単で、EditGANのトレーニングデータ以外の編集も可能になります。
論文 参考訳(メタデータ) (2021-11-04T22:36:33Z) - Learning Structural Edits via Incremental Tree Transformations [102.64394890816178]
構造化データのインクリメンタルな編集(すなわち「構造的編集」)のための汎用モデルを提案する。
我々の編集者は、反復的にツリー編集(例えば、サブツリーの削除や追加)を生成し、部分的に編集されたデータに適用することを学びます。
提案したエディタを2つのソースコード編集データセットで評価した結果,提案する編集エンコーダでは,従来よりも精度が向上していることがわかった。
論文 参考訳(メタデータ) (2021-01-28T16:11:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。