論文の概要: Targeted control of fast prototyping through domain-specific interface
- arxiv url: http://arxiv.org/abs/2506.11070v1
- Date: Mon, 02 Jun 2025 01:56:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-22 23:32:14.544835
- Title: Targeted control of fast prototyping through domain-specific interface
- Title(参考訳): ドメイン固有インタフェースによる高速プロトタイピングのターゲット制御
- Authors: Yu-Zhe Shi, Mingchen Liu, Hanlu Ma, Qiao Xu, Huamin Qu, Kun He, Lecheng Ruan, Qining Wang,
- Abstract要約: 工業デザイナーは長い間、プロトタイプモデルのターゲット制御を達成するための自然で直感的な方法を模索してきた。
大規模言語モデルはこの分野において有望であることを示しているが、プロトタイプモデルを言語で制御する可能性はまだ部分的には使われていない。
両言語間の媒体として機能するインタフェースアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 28.96685079422302
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Industrial designers have long sought a natural and intuitive way to achieve the targeted control of prototype models -- using simple natural language instructions to configure and adjust the models seamlessly according to their intentions, without relying on complex modeling commands. While Large Language Models have shown promise in this area, their potential for controlling prototype models through language remains partially underutilized. This limitation stems from gaps between designers' languages and modeling languages, including mismatch in abstraction levels, fluctuation in semantic precision, and divergence in lexical scopes. To bridge these gaps, we propose an interface architecture that serves as a medium between the two languages. Grounded in design principles derived from a systematic investigation of fast prototyping practices, we devise the interface's operational mechanism and develop an algorithm for its automated domain specification. Both machine-based evaluations and human studies on fast prototyping across various product design domains demonstrate the interface's potential to function as an auxiliary module for Large Language Models, enabling precise and effective targeted control of prototype models.
- Abstract(参考訳): インダストリアルデザイナは、複雑なモデリングコマンドに頼ることなく、意図に応じてモデルをシームレスに設定、調整するためのシンプルな自然言語命令を使用して、プロトタイプモデルをターゲットとするコントロールを実現するための、自然で直感的な方法を模索してきました。
大規模言語モデルはこの分野において有望であることを示しているが、プロトタイプモデルを言語で制御する可能性は、部分的には未利用のままである。
この制限は、抽象レベルのミスマッチ、意味的精度の変動、語彙スコープのばらつきなど、デザイナの言語とモデリング言語の間のギャップに起因している。
これらのギャップを埋めるために,両言語間の媒体として機能するインタフェースアーキテクチャを提案する。
ファストプロトタイピングの実践に関する体系的な研究から得られた設計原則に基づいて,インターフェースの操作機構を考案し,その自動ドメイン仕様のためのアルゴリズムを開発する。
様々な製品設計領域における高速プロトタイピングに関するマシンベース評価と人間による研究は、大きな言語モデルのための補助モジュールとして機能し、プロトタイプモデルの正確かつ効果的なターゲット制御を可能にするインタフェースの可能性を示している。
関連論文リスト
- Hierarchically Encapsulated Representation for Protocol Design in Self-Driving Labs [8.340267449839681]
自動運転研究所は、人間の実験者に代わって、単一の実験技術や所定の実験プロトコルを実行するようになった。
プロトコル設計の自動化への取り組みは始まっているが、知識に基づく機械設計者の能力は十分に発揮されていない。
本稿では,インスタンスアクション,一般化操作,製品フローモデルなどを階層的にカプセル化する多面的マルチスケール表現を提案する。
論文 参考訳(メタデータ) (2025-04-04T12:05:15Z) - IAA: Inner-Adaptor Architecture Empowers Frozen Large Language Model with Multimodal Capabilities [4.269326314400742]
マルチモーダル大言語モデル(MLLM)のための内適応アーキテクチャを導入する。
このアーキテクチャは、大きな言語モデル内の様々な深さで複数のマルチモーダルアダプタを組み込んで、テキスト指向のトランスフォーマー層との直接の相互作用を容易にする。
大規模な整列データを必要とする従来のフリーズ言語モデルとは異なり、提案アーキテクチャは小規模データセットにおいて優れた性能を実現することができる。
論文 参考訳(メタデータ) (2024-08-23T08:10:13Z) - Prompting Encoder Models for Zero-Shot Classification: A Cross-Domain Study in Italian [75.94354349994576]
本稿では,より小型のドメイン固有エンコーダ LM と,特殊なコンテキストにおける性能向上手法の併用の可能性について検討する。
本研究は, イタリアの官僚的・法的言語に焦点をあて, 汎用モデルと事前学習型エンコーダのみのモデルの両方を実験する。
その結果, 事前学習したモデルでは, 一般知識の頑健性が低下する可能性があるが, ドメイン固有のタスクに対して, ゼロショット設定においても, より優れた適応性を示すことがわかった。
論文 参考訳(メタデータ) (2024-07-30T08:50:16Z) - LVLM-Interpret: An Interpretability Tool for Large Vision-Language Models [50.259006481656094]
本稿では,大規模視覚言語モデルの内部メカニズムの理解を目的とした対話型アプリケーションを提案する。
このインタフェースは, 画像パッチの解釈可能性を高めるために設計されており, 応答の生成に有効である。
本稿では,一般的な大規模マルチモーダルモデルであるLLaVAにおける障害機構の理解に,アプリケーションがどのように役立つかのケーススタディを示す。
論文 参考訳(メタデータ) (2024-04-03T23:57:34Z) - Language Model Cascades [72.18809575261498]
テスト時に1つのモデルで繰り返し対話する、あるいは複数のモデルの合成は、さらに機能を拡張する。
制御フローと動的構造を持つ場合、確率的プログラミングのテクニックが必要となる。
この観点から、スクラッチパッド/思考連鎖、検証器、STaR、選択推論、ツール利用など、いくつかの既存のテクニックを定式化します。
論文 参考訳(メタデータ) (2022-07-21T07:35:18Z) - Language Models are General-Purpose Interfaces [109.45478241369655]
本稿では,様々な基礎モデルに対する汎用インタフェースとして言語モデルを提案する。
事前訓練されたエンコーダのコレクションは、様々なモダリティ(ビジョンや言語など)を知覚する
インタフェースとモジュールエンコーダを協調的に事前学習するための半因果言語モデリング手法を提案する。
論文 参考訳(メタデータ) (2022-06-13T17:34:22Z) - Deformable ProtoPNet: An Interpretable Image Classifier Using Deformable Prototypes [7.8515366468594765]
本稿では,Deformable Part Network(Deformable ProtoPNet)を提案する。
このモデルは、学習中に学習したプロトタイプと比較し、入力画像の分類を行い、「これのように見える」という形で説明を与える。
論文 参考訳(メタデータ) (2021-11-29T22:38:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。