論文の概要: Optimization and Mobile Deployment for Anthropocene Neural Style Transfer
- arxiv url: http://arxiv.org/abs/2601.21141v1
- Date: Thu, 29 Jan 2026 00:50:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.491889
- Title: Optimization and Mobile Deployment for Anthropocene Neural Style Transfer
- Title(参考訳): 人為的ニューラルスタイル転送のための最適化と移動配置
- Authors: Po-Hsun Chen, Ivan C. H. Liu,
- Abstract要約: AnthropoCamは、人為的環境の視覚合成に最適化されたモバイルベースのニューラルスタイル転送システムである。
SystemはReact NativeとFraskベースのGPUバックエンドを統合し、一般的なモバイルハードウェアで3-5秒以内に高解像度の推論を実現する。
- 参考スコア(独自算出の注目度): 0.3867363075280543
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents AnthropoCam, a mobile-based neural style transfer (NST) system optimized for the visual synthesis of Anthropocene environments. Unlike conventional artistic NST, which prioritizes painterly abstraction, stylizing human-altered landscapes demands a careful balance between amplifying material textures and preserving semantic legibility. Industrial infrastructures, waste accumulations, and modified ecosystems contain dense, repetitive patterns that are visually expressive yet highly susceptible to semantic erosion under aggressive style transfer. To address this challenge, we systematically investigate the impact of NST parameter configurations on the visual translation of Anthropocene textures, including feature layer selection, style and content loss weighting, training stability, and output resolution. Through controlled experiments, we identify an optimal parameter manifold that maximizes stylistic expression while preventing semantic erasure. Our results demonstrate that appropriate combinations of convolutional depth, loss ratios, and resolution scaling enable the faithful transformation of anthropogenic material properties into a coherent visual language. Building on these findings, we implement a low-latency, feed-forward NST pipeline deployed on mobile devices. The system integrates a React Native frontend with a Flask-based GPU backend, achieving high-resolution inference within 3-5 seconds on general mobile hardware. This enables real-time, in-situ visual intervention at the site of image capture, supporting participatory engagement with Anthropocene landscapes. By coupling domain-specific NST optimization with mobile deployment, AnthropoCam reframes neural style transfer as a practical and expressive tool for real-time environmental visualization in the Anthropocene.
- Abstract(参考訳): 本稿では,人為的環境の視覚合成に最適化された移動型ニューラルスタイル転送(NST)システムであるAnthropoCamを提案する。
絵画の抽象を優先する従来の芸術的NSTとは異なり、人為的な景観を様式化するには、材料テクスチャの増幅と意味論的妥当性の維持の間に注意深いバランスが必要である。
産業のインフラ、廃棄物の蓄積、修正された生態系は、視覚的に表現されるが、攻撃的なスタイルの移動の下で意味的侵食に非常に影響を受けやすい、密集した反復的なパターンを含んでいる。
この課題に対処するため,NSTパラメータ設定が特徴層選択,スタイルおよびコンテンツ損失重み付け,トレーニング安定性,出力分解能など,人類新世のテクスチャの視覚的翻訳に与える影響を系統的に検討した。
制御された実験を通して,セマンティック消去を防止しつつ,スタイリスティックな表現を最大化する最適パラメータ多様体を同定する。
その結果, 畳み込み深度, 損失比, 分解能スケーリングの適切な組み合わせは, 人為的物質特性を忠実な視覚言語へと忠実に変換できることを示した。
これらの結果に基づいて,モバイルデバイス上に展開する低レイテンシフィードフォワードNSTパイプラインを実装した。
このシステムはReact NativeフロントエンドとFraskベースのGPUバックエンドを統合し、一般的なモバイルハードウェアで3-5秒以内に高解像度の推論を実現する。
これにより、画像キャプチャーの現場でのリアルタイム、その場での視覚的介入が可能になり、人類新世の景観との参加性を支援する。
ドメイン固有のNST最適化とモバイルデプロイメントを結合することにより、ArthropoCamは、Arthropoceneにおけるリアルタイム環境ビジュアライゼーションの実践的で表現力のあるツールとして、ニューラルスタイルの転送を再構築する。
関連論文リスト
- Dynamic Avatar-Scene Rendering from Human-centric Context [75.95641456716373]
分離されたモデルと最適化されたモデルをブリッジするbf分離マップ(StM)戦略を提案する。
StMは、視覚的品質とレンダリングの精度の両方において、既存の最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2025-11-13T17:39:06Z) - Hybrid CNN-ViT Framework for Motion-Blurred Scene Text Restoration [2.0855516369698845]
我々は、畳み込みニューラルネットワーク(CNN)と視覚変換器(ViT)を組み合わせたハイブリッドディープラーニングフレームワークを導入する。
アーキテクチャは構造の詳細を保存するためにCNNベースのエンコーダデコーダを使用し、トランスフォーマーモジュールは自己注意を通じてグローバルな認識を高める。
提案手法は,PSNRでは32.20dB,SSIMでは0.934dB,軽量では2.83万パラメータ,平均推定時間は61msである。
論文 参考訳(メタデータ) (2025-11-08T17:48:58Z) - Vision At Night: Exploring Biologically Inspired Preprocessing For Improved Robustness Via Color And Contrast Transformations [18.437759539809175]
生物学的に動機づけられた入力前処理によるロバストなセマンティックセグメンテーションについて検討する。
RGB, グレースケール, 反対色チャネルに差分ガウスフィルタを適用することにより, モデルアーキテクチャやトレーニングを変更することなく, 局所コントラストを高めることができる。
このような前処理は, 夜間, 霧, 雪等の悪環境に適応しつつ, 流通性能を維持していることを示す。
論文 参考訳(メタデータ) (2025-09-29T14:48:32Z) - HoliGS: Holistic Gaussian Splatting for Embodied View Synthesis [59.25751939710903]
本稿では,長い単眼RGBビデオのエンボディドビュー合成に対処する,変形可能なガウススプラッティングフレームワークを提案する。
提案手法は,非可逆ガウス散乱変形ネットワークを利用して大規模動的環境を正確に再構築する。
その結果、現実のシナリオにおけるEVSの実用的でスケーラブルなソリューションが浮かび上がっています。
論文 参考訳(メタデータ) (2025-06-24T03:54:40Z) - Stretching Beyond the Obvious: A Gradient-Free Framework to Unveil the Hidden Landscape of Visual Invariance [9.346027495459039]
ストレッチ・アンド・スキーズ(Stretch-and-Squeeze、SnS)は、単位の不均一な風景を特徴づける、バイアスのない、モデルに依存しない、勾配のないフレームワークである。
SnSは、単位活性化を保ちながら、与えられた処理段階における基準刺激の表現を最大に変化させる摂動を求める。
畳み込みニューラルネットワーク(CNN)の適用により、SnSは、アフィン変換によって生成されたものよりもピクセル空間内の参照画像から得られる画像のバリエーションを明らかにした。
論文 参考訳(メタデータ) (2025-06-20T14:49:35Z) - VRS-UIE: Value-Driven Reordering Scanning for Underwater Image Enhancement [104.78586859995333]
状態空間モデル(SSM)は、線形複雑性と大域的受容場のために、視覚タスクの有望なバックボーンとして登場した。
大型で均質だが無意味な海洋背景の優位性は、希少で価値ある標的の特徴表現応答を希薄にすることができる。
水中画像強調(UIE)のための新しい値駆動リダクションスキャンフレームワークを提案する。
本フレームワークは, 水バイアスを効果的に抑制し, 構造や色彩の忠実さを保ち, 優れた向上性能(WMambaを平均0.89dB超える)を実現する。
論文 参考訳(メタデータ) (2025-05-02T12:21:44Z) - Neural Neighbor Style Transfer [31.746423262728598]
本稿では,最先端の品質,一般化,芸術的スタイルの伝達のための競争効率を提供するパイプラインを提案する。
我々のアプローチは、入力されたコンテンツから抽出されたニューラル特徴をスタイルの例から抽出した特徴に明示的に置き換え、最終的な出力を合成することに基づいている。
論文 参考訳(メタデータ) (2022-03-24T17:11:31Z) - Wide and Narrow: Video Prediction from Context and Motion [54.21624227408727]
本稿では,これらの相補的属性を統合し,深層ネットワークを通した複雑なピクセルのダイナミックスを予測するフレームワークを提案する。
本研究では,非局所的な近隣表現を集約し,過去のフレーム上の文脈情報を保存するグローバルなコンテキスト伝搬ネットワークを提案する。
また,移動オブジェクトの動作をメモリに格納することで,適応的なフィルタカーネルを生成するローカルフィルタメモリネットワークを考案した。
論文 参考訳(メタデータ) (2021-10-22T04:35:58Z) - Controllable Person Image Synthesis with Spatially-Adaptive Warped
Normalization [72.65828901909708]
制御可能な人物画像生成は、望ましい属性を持つ現実的な人間の画像を作成することを目的としている。
本稿では,学習フロー場とワープ変調パラメータを統合した空間適応型ワープ正規化(SAWN)を提案する。
本稿では,テクスチャ・トランスファータスクの事前学習モデルを洗練するための,新たな自己学習部分置換戦略を提案する。
論文 参考訳(メタデータ) (2021-05-31T07:07:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。