論文の概要: ObSynth: An Interactive Synthesis System for Generating Object Models
from Natural Language Specifications
- arxiv url: http://arxiv.org/abs/2210.11468v1
- Date: Thu, 20 Oct 2022 17:59:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-21 16:15:22.880839
- Title: ObSynth: An Interactive Synthesis System for Generating Object Models
from Natural Language Specifications
- Title(参考訳): ObSynth:自然言語仕様からオブジェクトモデルを生成する対話型合成システム
- Authors: Alex Gu, Tamara Mitrovska, Daniela Velez, Jacob Andreas, Armando
Solar-Lezama
- Abstract要約: 大規模言語モデル(LLM)に埋め込まれたドメイン知識を活用して,オブジェクトモデルの設計を支援する対話型システムであるOb Synthを紹介した。
これは、高レベルで、潜在的に曖昧な仕様を取り、より具体的な形式に修正するプロセスである仕様修正の例です。
- 参考スコア(独自算出の注目度): 37.36256960116617
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce ObSynth, an interactive system leveraging the domain knowledge
embedded in large language models (LLMs) to help users design object models
from high level natural language prompts. This is an example of specification
reification, the process of taking a high-level, potentially vague
specification and reifying it into a more concrete form. We evaluate ObSynth
via a user study, leading to three key findings: first, object models designed
using ObSynth are more detailed, showing that it often synthesizes fields users
might have otherwise omitted. Second, a majority of objects, methods, and
fields generated by ObSynth are kept by the user in the final object model,
highlighting the quality of generated components. Third, ObSynth altered the
workflow of participants: they focus on checking that synthesized components
were correct rather than generating them from scratch, though ObSynth did not
reduce the time participants took to generate object models.
- Abstract(参考訳): 我々は,大規模言語モデル(LLM)に埋め込まれたドメイン知識を活用した対話型システムObSynthを紹介し,高レベルの自然言語プロンプトからオブジェクトモデルの設計を支援する。
これは、高レベルで潜在的に曖昧な仕様を取り、より具体的な形式に修正するプロセスである仕様修正の例です。
まず、ObSynthを使って設計したオブジェクトモデルはより詳細であり、ユーザーが省略したかもしれないフィールドをしばしば合成することを示している。
次に、ObSynthによって生成されたほとんどのオブジェクト、メソッド、フィールドは、ユーザが最終的なオブジェクトモデルに保持し、生成されたコンポーネントの品質を強調します。
第三に、ObSynthは参加者のワークフローを変更した:彼らは合成されたコンポーネントがスクラッチから生成するのではなく正しいことをチェックすることに重点を置いている。
関連論文リスト
- Weak-to-Strong Compositional Learning from Generative Models for Language-based Object Detection [19.610781457283966]
本稿では,言語に基づく物体検出において,視覚言語モデル(VL)の構成的理解を高める新しい手法を提案する。
我々のフレームワークは、画像ドメインとテキストドメインの両方で、密にペア化された正と負の三つ子(画像、テキスト記述、バウンディングボックス)を生成する。
本稿では,合成三重項の複雑な記述における意味や構造を発見するための,新しいコントラスト学習形式を提案する。
論文 参考訳(メタデータ) (2024-07-21T23:43:24Z) - HIMO: A New Benchmark for Full-Body Human Interacting with Multiple Objects [86.86284624825356]
HIMOは、複数のオブジェクトと相互作用するフルボディの人間のデータセットである。
HIMOは3.3K 4D HOIシーケンスと4.08M 3D HOIフレームを含む。
論文 参考訳(メタデータ) (2024-07-17T07:47:34Z) - Recurrent Complex-Weighted Autoencoders for Unsupervised Object Discovery [62.43562856605473]
複雑な重み付き再帰的アーキテクチャの計算上の優位性について論じる。
本稿では,反復的制約満足度を実現する完全畳み込みオートエンコーダSynCxを提案する。
論文 参考訳(メタデータ) (2024-05-27T15:47:03Z) - Contrastive Training of Complex-Valued Autoencoders for Object Discovery [55.280789409319716]
アーキテクチャの変更と、最先端の同期モデルを大幅に改善する新しいコントラスト学習手法を導入する。
マルチオブジェクトカラーデータセットにおいて、教師なしの方法でオブジェクトを発見できる同期ベースモデルのクラスを初めて取得する。
論文 参考訳(メタデータ) (2023-05-24T10:37:43Z) - Complex-Valued Autoencoders for Object Discovery [62.26260974933819]
本稿では,オブジェクト中心表現に対する分散アプローチとして,複合オートエンコーダを提案する。
このシンプルで効率的なアプローチは、単純なマルチオブジェクトデータセット上の等価な実数値オートエンコーダよりも、より良い再構成性能を実現することを示す。
また、2つのデータセット上のSlotAttentionモデルと競合しないオブジェクト発見性能を実現し、SlotAttentionが失敗する第3のデータセットでオブジェクトをアンタングルする。
論文 参考訳(メタデータ) (2022-04-05T09:25:28Z) - Integrated Speech and Gesture Synthesis [26.267738299876314]
テキスト音声合成と共同音声合成は、これまで2つの異なる研究コミュニティによって別々の領域として扱われてきた。
統合音声・ジェスチャー合成(ISG)と呼ばれる新しい問題である,2つのモーダルを1つのモデルで合成することを提案する。
モデルは、パイプラインシステムと比較して、より高速な合成時間とパラメータ数でこれを実現することができる。
論文 参考訳(メタデータ) (2021-08-25T19:04:00Z) - Unity Perception: Generate Synthetic Data for Computer Vision [9.479256069071315]
本稿では,コンピュータビジョンタスクのための合成データセット生成プロセスの簡素化と高速化を目的としたUnity Perceptionパッケージを紹介する。
このオープンソースパッケージはUnity Editorとエンジンコンポーネントを拡張し、いくつかの一般的なコンピュータビジョンタスクの完全な注釈付き例を生成する。
提案するツールの概要と動作方法,および2次元オブジェクト検出モデルをトレーニングすることにより生成した合成データセットの価値を実証する。
論文 参考訳(メタデータ) (2021-07-09T07:09:00Z) - SynthRef: Generation of Synthetic Referring Expressions for Object
Segmentation [7.690965189591581]
ビデオオブジェクトセグメンテーションのための合成参照表現を用いた最初の大規模データセットを提示・配布する。
実験により, 合成参照表現を用いて学習することにより, モデルが様々なデータセットにまたがって一般化する能力を向上できることが実証された。
論文 参考訳(メタデータ) (2021-06-08T14:28:13Z) - Synthesizing the Unseen for Zero-shot Object Detection [72.38031440014463]
そこで本研究では,視覚領域における視覚的特徴と視覚的対象の両方を学習するために,視覚的特徴を合成することを提案する。
クラスセマンティックスを用いた新しい生成モデルを用いて特徴を生成するだけでなく,特徴を識別的に分離する。
論文 参考訳(メタデータ) (2020-10-19T12:36:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。