論文の概要: ToonOut: Fine-tuned Background-Removal for Anime Characters
- arxiv url: http://arxiv.org/abs/2509.06839v1
- Date: Mon, 08 Sep 2025 16:08:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:04.251402
- Title: ToonOut: Fine-tuned Background-Removal for Anime Characters
- Title(参考訳): ToonOut:アニメキャラクタの微調整によるバックグラウンド削除
- Authors: Matteo Muratori, Joël Seytre,
- Abstract要約: このデータセットには、キャラクタとオブジェクトの高品質なアニメイメージ1,228が含まれている。
このデータセット上で、オープンソースのBiRefNetモデルを微調整した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While state-of-the-art background removal models excel at realistic imagery, they frequently underperform in specialized domains such as anime-style content, where complex features like hair and transparency present unique challenges. To address this limitation, we collected and annotated a custom dataset of 1,228 high-quality anime images of characters and objects, and fine-tuned the open-sourced BiRefNet model on this dataset. This resulted in marked improvements in background removal accuracy for anime-style images, increasing from 95.3% to 99.5% for our newly introduced Pixel Accuracy metric. We are open-sourcing the code, the fine-tuned model weights, as well as the dataset at: https://github.com/MatteoKartoon/BiRefNet.
- Abstract(参考訳): 最先端の背景除去モデルは現実的なイメージに優れていますが、アニメスタイルのコンテンツのような特殊なドメインでは、毛髪や透明性といった複雑な特徴がユニークな課題を呈しています。
この制限に対処するため、1,228の高品質アニメ画像のカスタムデータセットを収集し、このデータセット上でオープンソースのBiRefNetモデルを微調整した。
この結果、アニメスタイルの画像の背景削除精度が95.3%から99.5%に向上した。
コード、微調整されたモデルウェイト、およびデータセットをオープンソースにしています。
関連論文リスト
- Webly-Supervised Image Manipulation Localization via Category-Aware Auto-Annotation [49.83611963142304]
画像編集ツールを使って操作された画像は、視聴者を誤解させ、社会保障に重大なリスクをもたらす可能性がある。
この領域の主な障壁の1つは、データ取得の高コストと、高品質な注釈付きデータセットの深刻な欠如である。
我々は、Webから手動で鍛造された画像の大規模なコレクションと、自動生成されたアノテーションを利用する。
我々はMIMLv2を構築する。MIMLv2は大規模で多彩で高品質なデータセットで、246,212個の手動鍛造画像とピクセルレベルのマスクアノテーションを備えている。
論文 参考訳(メタデータ) (2025-08-28T16:44:40Z) - CharaConsist: Fine-Grained Consistent Character Generation [93.08900337098302]
CharaConsistは、テキスト・ツー・イメージのDiTモデルに適した、最初の一貫した生成方法である。
CharaConsistは、フォアグラウンドとバックグラウンドの両方できめ細かい一貫性を実現する。
きめ細かい一貫性を維持する能力と、最新のベースモデルの容量を大きくすることで、高品質なビジュアル出力を生成することができる。
論文 参考訳(メタデータ) (2025-07-15T17:58:08Z) - AnimeDL-2M: Million-Scale AI-Generated Anime Image Detection and Localization in Diffusion Era [11.94929097375473]
手描きアートワークとしてのAI生成画像の誤表現は、アニメコミュニティや業界に深刻な脅威をもたらす。
本稿では,アニメIMDLの包括的なアノテーションを用いた大規模ベンチマークであるAnimeDL-2Mを提案する。
また,アニメ映像の視覚的特徴に合わせた新しいモデルAniXploreを提案する。
論文 参考訳(メタデータ) (2025-04-15T09:41:08Z) - APISR: Anime Production Inspired Real-World Anime Super-Resolution [15.501488335115269]
我々は,手描きフレームの繰り返し使用により,映像ネットワークやデータセットはアニメSRでは不要であると主張している。
代わりに,ビデオソースから最も圧縮され,最も情報に富んだフレームを選択することにより,アニメ画像収集パイプラインを提案する。
提案手法は,公開ベンチマークによる広範囲な実験により評価され,最先端のアニメデータセット学習手法よりも優れていた。
論文 参考訳(メタデータ) (2024-03-03T19:52:43Z) - Scenimefy: Learning to Craft Anime Scene via Semi-Supervised
Image-to-Image Translation [75.91455714614966]
そこで我々は,新しい半教師付き画像-画像間翻訳フレームワークであるScenimefyを提案する。
提案手法は,構造に一貫性のある擬似ペアデータによる学習を導く。
スタイル化と細部を改善するために、パッチワイドのコントラストスタイルロスが導入されている。
論文 参考訳(メタデータ) (2023-08-24T17:59:50Z) - MagicBrush: A Manually Annotated Dataset for Instruction-Guided Image Editing [48.204992417461575]
MagicBrushは、命令誘導の実画像編集のための、手動で手動の大規模データセットである。
人による評価により,新しいモデルによりより優れた画像が生成できることが示される。
論文 参考訳(メタデータ) (2023-06-16T17:58:58Z) - iEdit: Localised Text-guided Image Editing with Weak Supervision [53.082196061014734]
テキスト誘導画像編集のための新しい学習法を提案する。
ソースイメージに条件付けされた画像とテキスト編集プロンプトを生成する。
画像の忠実度、CLIPアライメントスコア、および生成された画像と実際の画像の両方を定性的に編集する点において、画像に対して好ましい結果を示す。
論文 参考訳(メタデータ) (2023-05-10T07:39:14Z) - AnimeRun: 2D Animation Visual Correspondence from Open Source 3D Movies [98.65469430034246]
既存の2次元漫画のデータセットは、単純なフレーム構成と単調な動きに悩まされている。
我々は,オープンソースの3D映画を2Dスタイルのフルシーンに変換することによって,新しい2Dアニメーション視覚対応データセットAnimeRunを提案する。
分析の結果,提案したデータセットは画像合成において実際のアニメに似るだけでなく,既存のデータセットと比較してよりリッチで複雑な動きパターンを持つことがわかった。
論文 参考訳(メタデータ) (2022-11-10T17:26:21Z) - DAF:re: A Challenging, Crowd-Sourced, Large-Scale, Long-Tailed Dataset
For Anime Character Recognition [15.120571134807186]
3000以上のクラスに500K近い画像が散在する大規模でクラウドソーシングされた長尾データセットを紹介します。
CNNベースのResNetsやViT(Self-attention based Vision Transformer)など、様々な分類モデルを用いてDAF:reおよび類似データセットの実験を行います。
私たちの結果は、実質的に異なるドメインデータセット上のViTモデルの一般化および転送学習特性に関する新しい洞察を与えます。
論文 参考訳(メタデータ) (2021-01-21T15:40:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。