論文の概要: Finer-Personalization Rank: Fine-Grained Retrieval Examines Identity Preservation for Personalized Generation
- arxiv url: http://arxiv.org/abs/2512.19026v1
- Date: Mon, 22 Dec 2025 04:53:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.621155
- Title: Finer-Personalization Rank: Fine-Grained Retrieval Examines Identity Preservation for Personalized Generation
- Title(参考訳): ファイナ・パーソナライゼーション・ランク:パーソナライズ・ジェネレーションのためのファイングレード検索項目保存
- Authors: Connor Kilrain, David Carlyn, Julia Chae, Sara Beery, Wei-Lun Chao, Jianyang Gu,
- Abstract要約: ファイナ・パーソナライゼーション・ランク(Finer-Personalization Rank)は、アイデンティティ保護に適した評価プロトコルである。
生成した各画像を、視覚的に類似した実画像からなるアイデンティティラベル付きギャラリーに対するクエリとして扱う。
検索メトリクスは、より高いスコアがアイデンティティ固有の詳細が保存されていることを示すパフォーマンスを測定する。
- 参考スコア(独自算出の注目度): 34.915564029238105
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The rise of personalized generative models raises a central question: how should we evaluate identity preservation? Given a reference image (e.g., one's pet), we expect the generated image to retain precise details attached to the subject's identity. However, current generative evaluation metrics emphasize the overall semantic similarity between the reference and the output, and overlook these fine-grained discriminative details. We introduce Finer-Personalization Rank, an evaluation protocol tailored to identity preservation. Instead of pairwise similarity, Finer-Personalization Rank adopts a ranking view: it treats each generated image as a query against an identity-labeled gallery consisting of visually similar real images. Retrieval metrics (e.g., mean average precision) measure performance, where higher scores indicate that identity-specific details (e.g., a distinctive head spot) are preserved. We assess identity at multiple granularities -- from fine-grained categories (e.g., bird species, car models) to individual instances (e.g., re-identification). Across CUB, Stanford Cars, and animal Re-ID benchmarks, Finer-Personalization Rank more faithfully reflects identity retention than semantic-only metrics and reveals substantial identity drift in several popular personalization methods. These results position the gallery-based protocol as a principled and practical evaluation for personalized generation.
- Abstract(参考訳): パーソナライズされた生成モデルの台頭は、アイデンティティの保存をどのように評価すべきかという中心的な疑問を提起する。
参照画像(例えばペット)が与えられた場合、生成した画像は被写体のアイデンティティに付随する正確な詳細を保持することを期待する。
しかしながら、現在の生成的評価指標は、参照と出力の全体的な意味的類似性を強調し、これらの微粒な識別的詳細を見落としている。
アイデンティティ保護に適した評価プロトコルであるFiner-Personalization Rankを紹介する。
フィナー・パーソナライゼーション・ランク(Finer-Personalization Rank)は、視覚的に類似した実画像からなるアイデンティティラベル付きギャラリーに対して、生成された各イメージをクエリとして扱う。
検索指標(平均精度、平均値)は、高いスコアは、識別固有の詳細(例えば、特異な頭部点)が保存されていることを示す。
細粒度分類(例えば鳥種,自動車モデル)から個々のインスタンス(例えば,再同定)まで,複数の粒度でアイデンティティを評価する。
CUB、Stanford Cars、および動物用Re-IDベンチマーク全体において、Finer-Personalization Rankは、セマンティックのみのメトリクスよりもアイデンティティの保持を忠実に反映し、いくつかのポピュラーなパーソナライズ手法でかなりのアイデンティティドリフトを明らかにしている。
これらの結果は、ギャラリーベースのプロトコルをパーソナライズされた生成のための原則的で実践的な評価として位置づけている。
関連論文リスト
- Beyond Inference Intervention: Identity-Decoupled Diffusion for Face Anonymization [55.29071072675132]
顔の匿名化は、非同一性属性を保持しながら、識別情報を隠蔽することを目的としている。
トレーニング中心の匿名化フレームワークである textbfIDsuperscript2Face を提案する。
IDtextsuperscript2Faceは、視覚的品質、アイデンティティの抑制、ユーティリティ保存において、既存の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-10-28T09:28:12Z) - From Poses to Identity: Training-Free Person Re-Identification via Feature Centralization [9.614305363044737]
人物再識別(ReID)は、正確な識別表現の特徴を抽出することを目的としている。
個人ノイズを低減するための訓練自由特徴集中型ReIDフレームワーク(Pose2ID)を提案する。
提案手法は, 標準, クロスモダリティ, 隠蔽されたReIDタスクにまたがって, 最先端の新たな結果を設定する。
論文 参考訳(メタデータ) (2025-03-02T15:31:48Z) - Cerberus: Attribute-based person re-identification using semantic IDs [25.03196023077888]
我々は属性に基づく人物再識別(reID)のための新しいフレームワークCerberusを紹介した。
提案手法は,性別や衣服スタイルなどの特徴を符号化した局所的・グローバルな人物表現を学習するために,人物属性ラベルを活用する。
論文 参考訳(メタデータ) (2024-12-02T02:12:28Z) - Disentangled Representations for Short-Term and Long-Term Person Re-Identification [33.76874948187976]
アイデンティティシャッフルGAN(Identity shuffle GAN:IS-GAN)と呼ばれる新たな生成対向ネットワークを提案する。
それは、アイデンティティシャッフル技術によって、個人画像からアイデンティティ関連および非関連の特徴を解き放つ。
実験により,IS-GANの有効性が検証され,標準reIDベンチマークにおける最先端性能が示された。
論文 参考訳(メタデータ) (2024-09-09T02:09:49Z) - RetriBooru: Leakage-Free Retrieval of Conditions from Reference Images for Subject-Driven Generation [30.143033020296183]
拡散に基づく手法は、様々な高品質な画像を生成する能力を実証している。
顔と布の同一性の両方でアニメキャラクターをグループ化するマルチレベル同一性データセットRetriBooruを提案する。
条件付きエンコーダは複数の参照画像から異なる概念を検索する。
論文 参考訳(メタデータ) (2023-12-05T06:04:16Z) - Rethinking Person Re-identification from a Projection-on-Prototypes
Perspective [84.24742313520811]
検索タスクとしてのPerson Re-IDentification(Re-ID)は,過去10年間で大きな発展を遂げてきた。
本稿では,新しいベースライン ProNet を提案する。
4つのベンチマークの実験では、提案したProNetは単純だが有効であり、以前のベースラインを大きく上回っている。
論文 参考訳(メタデータ) (2023-08-21T13:38:10Z) - Unsupervised Text Deidentification [101.2219634341714]
個人識別情報を漏洩する単語を隠蔽する教師なしの識別手法を提案する。
K匿名性に基づくプライバシによって動機づけられた私たちは、最小の再識別ランクを保証するリアクションを生成します。
論文 参考訳(メタデータ) (2022-10-20T18:54:39Z) - End-to-End Context-Aided Unicity Matching for Person Re-identification [100.02321122258638]
本稿では,人間同士の一致関係を学習・精査するための,エンドツーエンドの対人一意整合アーキテクチャを提案する。
サンプルのグローバルコンテキスト関係を用いて,ソフトマッチング結果を洗練し,両部グラフマッチングにより一致ユニシティに到達する。
実世界における人物再識別の応用を十分に考慮し, ワンショットとマルチショットの双方で一様マッチングを実現する。
論文 参考訳(メタデータ) (2022-10-20T07:33:57Z) - Intra-Camera Supervised Person Re-Identification [87.88852321309433]
本稿では,カメラごとの個人識別アノテーションに基づく新しい人物識別パラダイムを提案する。
これにより、最も時間がかかり、面倒なカメラ間IDラベリングプロセスがなくなる。
MATE(Multi-tAsk mulTi-labEl)Deep Learning method for intra-Camera Supervised (ICS) person re-id。
論文 参考訳(メタデータ) (2020-02-12T15:26:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。