論文の概要: TextureMeDefect: LLM-based Defect Texture Generation for Railway Components on Mobile Devices
- arxiv url: http://arxiv.org/abs/2410.18085v1
- Date: Mon, 07 Oct 2024 19:07:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-27 05:40:42.953933
- Title: TextureMeDefect: LLM-based Defect Texture Generation for Railway Components on Mobile Devices
- Title(参考訳): TextureMedefect: モバイルデバイス上での鉄道部品のLCMによる欠陥テクスチャ生成
- Authors: Rahatara Ferdousi, M. Anwar Hossain, Abdulmotaleb El Saddik,
- Abstract要約: AI-Inferenceエンジンを活用した革新的なツールであるTextureMeDefectを紹介した。
このツールを使うと、スマートフォンやタブレットで撮った鉄道部品の画像からリアルな欠陥テクスチャを作れる。
このツールをiOSおよびAndroidプラットフォームで使用する際のテクスチャ,時間,コストの関連性を評価するために,多面的評価を行った。
- 参考スコア(独自算出の注目度): 5.381374943525773
- License:
- Abstract: Texture image generation has been studied for various applications, including gaming and entertainment. However, context-specific realistic texture generation for industrial applications, such as generating defect textures on railway components, remains unexplored. A mobile-friendly, LLM-based tool that generates fine-grained defect characteristics offers a solution to the challenge of understanding the impact of defects from actual occurrences. We introduce TextureMeDefect, an innovative tool leveraging an LLM-based AI-Inferencing engine. The tool allows users to create realistic defect textures interactively on images of railway components taken with smartphones or tablets. We conducted a multifaceted evaluation to assess the relevance of the generated texture, time, and cost in using this tool on iOS and Android platforms. We also analyzed the software usability score (SUS) across three scenarios. TextureMeDefect outperformed traditional image generation tools by generating meaningful textures faster, showcasing the potential of AI-driven mobile applications on consumer-grade devices.
- Abstract(参考訳): テクスチャ画像生成はゲームやエンターテイメントなど様々な用途で研究されている。
しかし、鉄道部品に欠陥テクスチャを発生させるなど、産業用途のコンテキスト特異的な現実的なテクスチャ生成は未定である。
微細な欠陥特性を生成するモバイルフレンドリーなLLMベースのツールは、実際の発生から欠陥の影響を理解するという課題に対する解決策を提供する。
LLMベースのAI推論エンジンを活用した革新的なツールであるTextureMeDefectを紹介する。
このツールを使うと、スマートフォンやタブレットで撮った鉄道部品の画像からリアルな欠陥テクスチャを作れる。
このツールをiOSおよびAndroidプラットフォームで使用する際のテクスチャ,時間,コストの関連性を評価するために,多面的評価を行った。
また、ソフトウェアユーザビリティスコア(SUS)を3つのシナリオで分析した。
TextureMeDefectは、意味のあるテクスチャを高速に生成することで、従来の画像生成ツールよりも優れており、コンシューマグレードのデバイス上でAI駆動のモバイルアプリケーションの可能性を示している。
関連論文リスト
- KITTEN: A Knowledge-Intensive Evaluation of Image Generation on Visual Entities [93.74881034001312]
テキスト・画像生成モデルにおける実体の忠実度に関する系統的研究を行う。
我々はランドマークの建物、航空機、植物、動物など、幅広い現実世界の視覚的実体を生成する能力に焦点をあてる。
その結果、最も高度なテキスト・画像モデルでさえ、正確な視覚的詳細を持つエンティティを生成できないことが判明した。
論文 参考訳(メタデータ) (2024-10-15T17:50:37Z) - Close the Sim2real Gap via Physically-based Structured Light Synthetic Data Simulation [16.69742672616517]
我々は、RGBと物理的にリアルな深度画像を生成する革新的な構造化光シミュレーションシステムを導入する。
ロボット産業の把握シナリオに適したRGBDデータセットを作成します。
sim2realのギャップを減らし、深層学習訓練を強化することにより、深層学習モデルを産業環境に適用しやすくする。
論文 参考訳(メタデータ) (2024-07-17T09:57:14Z) - Meta 3D TextureGen: Fast and Consistent Texture Generation for 3D Objects [54.80813150893719]
高品質なテクスチャを20秒未満で生成することを目的とした,2つのシーケンシャルネットワークで構成される新しいフィードフォワード方式であるMeta 3D TextureGenを紹介する。
提案手法は,2次元空間の3次元セマンティクスにテキスト・ツー・イメージ・モデルを適用し,それらを完全かつ高解像度なUVテクスチャマップに融合することにより,品質とスピードを向上する。
さらに、任意の比率で任意のテクスチャをアップスケーリングできるテクスチャ拡張ネットワークを導入し、4kピクセルの解像度テクスチャを生成します。
論文 参考訳(メタデータ) (2024-07-02T17:04:34Z) - Generative AI in Color-Changing Systems: Re-Programmable 3D Object Textures with Material and Design Constraints [13.440729439462014]
フォトクロミック材料を用いたリプログラミング可能な表面の材料および設計制約を伴って、生成型AIシステムを拡張する可能性について論じる。
生成するAIシステムを、フォトクロミック染料で物理的に実現可能な色や素材に制限することにより、ユーザーはさまざまな実行可能なパターンを探索できるツールを作成できる。
論文 参考訳(メタデータ) (2024-04-25T20:39:51Z) - TextureDreamer: Image-guided Texture Synthesis through Geometry-aware
Diffusion [64.49276500129092]
TextureDreamerは画像誘導型テクスチャ合成法である。
少数の入力画像から任意のカテゴリでターゲットの3D形状に光沢のあるテクスチャを転送することができる。
論文 参考訳(メタデータ) (2024-01-17T18:55:49Z) - ENTED: Enhanced Neural Texture Extraction and Distribution for
Reference-based Blind Face Restoration [51.205673783866146]
我々は,高品質でリアルな肖像画を復元することを目的とした,ブラインドフェイス修復のための新しいフレームワークであるENTEDを提案する。
劣化した入力画像と参照画像の間で高品質なテクスチャ特徴を伝達するために,テクスチャ抽出と分布の枠組みを利用する。
われわれのフレームワークにおけるStyleGANのようなアーキテクチャは、現実的な画像を生成するために高品質な潜伏符号を必要とする。
論文 参考訳(メタデータ) (2024-01-13T04:54:59Z) - EvaSurf: Efficient View-Aware Implicit Textured Surface Reconstruction on Mobile Devices [53.28220984270622]
モバイル端末に暗黙的テクスチャを付加したtextbfSurf$ace 再構成手法を提案する。
提案手法は,合成と実世界の両方のデータセット上で,高品質な外観と正確なメッシュを再構築することができる。
我々の方法は1つのGPUを使ってたった1~2時間でトレーニングでき、40FPS(Frames per second)以上のモバイルデバイス上で実行することができる。
論文 参考訳(メタデータ) (2023-11-16T11:30:56Z) - Development and Evaluation of a Learning-based Model for Real-time Haptic Texture Rendering [23.078251379039987]
触覚テクスチャレンダリングのための学習に基づく行動条件モデルを提案する。
提案手法は,最先端手法に匹敵する,あるいは高品質な高周波数テクスチャレンダリングを実現する。
論文 参考訳(メタデータ) (2022-12-27T01:06:26Z) - NViSII: A Scriptable Tool for Photorealistic Image Generation [21.453677837017462]
本稿では,NVIDIA の OptiX 線追跡エンジンと,高品質な合成画像を生成するために設計された OptiX AI denoiser をベースとした Python ベースのシステムを提案する。
我々のツールは複雑な動的3Dシーンの記述と操作を可能にする。
論文 参考訳(メタデータ) (2021-05-28T16:35:32Z) - OpenRooms: An End-to-End Open Framework for Photorealistic Indoor Scene
Datasets [103.54691385842314]
本研究では,屋内シーンの大規模フォトリアリスティックデータセットを作成するための新しいフレームワークを提案する。
私たちの目標は、データセット作成プロセスを広く利用できるようにすることです。
これにより、逆レンダリング、シーン理解、ロボット工学における重要な応用が可能になる。
論文 参考訳(メタデータ) (2020-07-25T06:48:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。