論文の概要: Anteater: Interactive Visualization of Program Execution Values in
Context
- arxiv url: http://arxiv.org/abs/1907.02872v4
- Date: Mon, 26 Feb 2024 16:42:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-03 19:41:50.229505
- Title: Anteater: Interactive Visualization of Program Execution Values in
Context
- Title(参考訳): Anteater: コンテキスト内のプログラム実行値のインタラクティブな可視化
- Authors: Rebecca Faust, Katherine Isaacs, William Z. Bernstein, Michael Sharp,
and Carlos Scheidegger
- Abstract要約: 我々はAnteaterを紹介した。AnteaterはPythonプログラムの実行をトレースし探索するためのインタラクティブな可視化システムである。
Anteaterの実用性を評価するために,Anteaterを用いてプログラマが独自のpythonプログラムでタスクを完了させる実験を行った。
- 参考スコア(独自算出の注目度): 5.562843782956304
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Debugging is famously one the hardest parts in programming. In this paper, we
tackle the question: what does a debugging environment look like when we take
interactive visualization as a central design principle? We introduce Anteater,
an interactive visualization system for tracing and exploring the execution of
Python programs. Existing systems often have visualization components built on
top of an existing infrastructure. In contrast, Anteater's organization of
trace data enables an intermediate representation which can be leveraged to
automatically synthesize a variety of visualizations and interactions. These
interactive visualizations help with tasks such as discovering important
structures in the execution and understanding and debugging unexpected
behaviors. To assess the utility of Anteater, we conducted a participant study
where programmers completed tasks on their own python programs using Anteater.
Finally, we discuss limitations and where further research is needed.
- Abstract(参考訳): デバッグはプログラミングにおいて最も難しい部分です。
本稿では,インタラクティブな可視化を中心的な設計原則とする上で,デバッグ環境はどのようなものか,という問題に取り組む。
我々は,pythonプログラムの実行をトレースし探索するインタラクティブ可視化システム anteater を紹介する。
既存のシステムは、しばしば既存のインフラの上に構築された可視化コンポーネントを持つ。
対照的に、Anteaterのトレースデータの組織化は、様々な視覚化とインタラクションを自動的に合成するために活用できる中間表現を可能にする。
これらのインタラクティブな視覚化は、実行中の重要な構造の発見や予期しない動作の理解、デバッグといったタスクに役立つ。
Anteaterの有用性を評価するために,プログラマがAnteaterを使って独自のピソンプログラムでタスクを完了させる実験を行った。
最後に,限界と今後の研究の必要性について論じる。
関連論文リスト
- AgentStudio: A Toolkit for Building General Virtual Agents [57.02375267926862]
一般的な仮想エージェントは、マルチモーダルな観察、複雑なアクション空間のマスター、動的でオープンなドメイン環境における自己改善を扱う必要がある。
AgentStudioは、非常に汎用的な観察とアクション空間を備えた軽量でインタラクティブな環境を提供する。
オンラインベンチマークタスクの作成、GUI要素の注釈付け、ビデオ内のアクションのラベル付けといったツールを統合する。
環境とツールに基づいて、GUIインタラクションと関数呼び出しの両方を効率的な自動評価でベンチマークするオンラインタスクスイートをキュレートします。
論文 参考訳(メタデータ) (2024-03-26T17:54:15Z) - De-fine: Decomposing and Refining Visual Programs with Auto-Feedback [75.62712247421146]
De-fineは、複雑なタスクを単純なサブタスクに分解し、オートフィードバックを通じてプログラムを洗練する、トレーニング不要のフレームワークである。
様々な視覚的タスクに対する我々の実験は、De-fineがより堅牢なプログラムを生成することを示している。
論文 参考訳(メタデータ) (2023-11-21T06:24:09Z) - Selective Visual Representations Improve Convergence and Generalization
for Embodied AI [44.33711781750707]
身体化されたAIモデルは、CLIPのような棚の視覚バックボーンを使って視覚的な観察をエンコードすることが多い。
これは学習プロセス内のノイズを導入し、タスク関連視覚的手がかりからエージェントの焦点を逸脱させる。
人間が経験、知識、課題に基づいて知覚をフィルタリングするプロセスにおいて、人間の選択的な注意を喚起して、我々は、具体化されたAIのための視覚刺激をフィルタリングするためのパラメータ効率の良いアプローチを導入する。
論文 参考訳(メタデータ) (2023-11-07T18:34:02Z) - Better Context Makes Better Code Language Models: A Case Study on
Function Call Argument Completion [15.068025336990287]
既存のコード補完モデルでは、完了タスクに良い結果が得られないことを示します。
与えられた関数呼び出しに関する情報をプログラムアナライザに問い合わせ、推論およびトレーニング中に異なるコード補完モデルに対してアナライザ結果を提供する方法を検討する。
実験の結果,関数の実装と関数の使用量へのアクセスは,引数補完性能を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2023-06-01T06:25:58Z) - InterFormer: Real-time Interactive Image Segmentation [80.45763765116175]
インタラクティブなイメージセグメンテーションにより、アノテータはセグメンテーションタスクのためのピクセルレベルのアノテーションを効率的に実行することができる。
既存のインタラクティブセグメンテーションパイプラインは、インタラクティブモデルの非効率な計算に悩まされている。
これらの問題に対処するための新しいパイプラインに従うInterFormerという手法を提案する。
論文 参考訳(メタデータ) (2023-04-06T08:57:00Z) - Visual Programming: Compositional visual reasoning without training [24.729624386851388]
VISPROGは、複雑で構成的な視覚課題を解決するための神経象徴的なアプローチである。
大規模な言語モデルのコンテキスト内学習機能を使って、ピソンのようなモジュラープログラムを生成する。
論文 参考訳(メタデータ) (2022-11-18T18:50:09Z) - INVIGORATE: Interactive Visual Grounding and Grasping in Clutter [56.00554240240515]
INVIGORATEは、自然言語で人間と対話し、特定の物体をクラッタで把握するロボットシステムである。
我々は、物体検出、視覚的接地、質問生成、OBR検出と把握のために、別々のニューラルネットワークを訓練する。
我々は、学習したニューラルネットワークモジュールを統合する、部分的に観測可能なマルコフ決定プロセス(POMDP)を構築します。
論文 参考訳(メタデータ) (2021-08-25T07:35:21Z) - RICE: Refining Instance Masks in Cluttered Environments with Graph
Neural Networks [53.15260967235835]
本稿では,インスタンスマスクのグラフベース表現を利用して,そのような手法の出力を改良する新しいフレームワークを提案する。
我々は、セグメンテーションにスマートな摂動をサンプリングできるディープネットワークと、オブジェクト間の関係をエンコード可能なグラフニューラルネットワークを訓練し、セグメンテーションを評価する。
本稿では,本手法によって生成された不確実性推定を用いてマニピュレータを誘導し,乱れたシーンを効率的に理解するアプリケーションについて紹介する。
論文 参考訳(メタデータ) (2021-06-29T20:29:29Z) - Modeling Long-horizon Tasks as Sequential Interaction Landscapes [75.5824586200507]
本稿では,一連のデモビデオからのみ,サブタスク間の依存関係と遷移を学習するディープラーニングネットワークを提案する。
これらのシンボルは、画像観察から直接学習し、予測できることが示される。
我々は,(1)人間によって実行されるパズル片のブロック積み重ね,(2)物体のピック・アンド・プレイスとキャビネットドアを7-DoFロボットアームで滑らせるロボット操作という,2つの長期水平作業において,我々の枠組みを評価する。
論文 参考訳(メタデータ) (2020-06-08T18:07:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。