論文の概要: Personalized visual encoding model construction with small data
- arxiv url: http://arxiv.org/abs/2202.02245v1
- Date: Fri, 4 Feb 2022 17:24:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-07 16:11:40.188231
- Title: Personalized visual encoding model construction with small data
- Title(参考訳): 小型データを用いたパーソナライズされたビジュアルエンコーディングモデルの構築
- Authors: Zijin Gu, Keith Jamison, Mert Sabuncu, and Amy Kuceyeski
- Abstract要約: 既存のエンコーディングモデルを活用するために,パーソナライズされたアンサンブルエンコーディングモデルアプローチを提案し,検証する。
これらのパーソナライズされたアンサンブル符号化モデルが、特定の個人に対して少量のデータで訓練されていることを示す。
重要なことは、パーソナライズされたアンサンブル符号化モデルは、画像-応答関係における個人間の変動パターンを保存することである。
- 参考スコア(独自算出の注目度): 1.6799377888527687
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Encoding models that predict brain response patterns to stimuli are one way
to capture this relationship between variability in bottom-up neural systems
and individual's behavior or pathological state. However, they generally need a
large amount of training data to achieve optimal accuracy. Here, we propose and
test an alternative personalized ensemble encoding model approach to utilize
existing encoding models, to create encoding models for novel individuals with
relatively little stimuli-response data. We show that these personalized
ensemble encoding models trained with small amounts of data for a specific
individual, i.e. ~400 image-response pairs, achieve accuracy not different from
models trained on ~24,000 image-response pairs for the same individual.
Importantly, the personalized ensemble encoding models preserve patterns of
inter-individual variability in the image-response relationship. Additionally,
we use our personalized ensemble encoding model within the recently developed
NeuroGen framework to generate optimal stimuli designed to maximize specific
regions' activations for a specific individual. We show that the
inter-individual differences in face area responses to images of dog vs human
faces observed previously is replicated using NeuroGen with the ensemble
encoding model. Finally, and most importantly, we show the proposed approach is
robust against domain shift by validating on a prospectively collected set of
image-response data in novel individuals with a different scanner and
experimental setup. Our approach shows the potential to use previously
collected, deeply sampled data to efficiently create accurate, personalized
encoding models and, subsequently, personalized optimal synthetic images for
new individuals scanned under different experimental conditions.
- Abstract(参考訳): 刺激に対する脳反応パターンを予測する符号化モデルは、ボトムアップ神経系の変動性と個人の行動や病理状態との関係を捉える1つの方法である。
しかし、最適な精度を得るためには、通常、大量のトレーニングデータが必要である。
本稿では,既存の符号化モデルを用いて,比較的少ない刺激応答データを持つ新規個体の符号化モデルを作成するための,パーソナライズされたアンサンブル符号化モデル手法を提案する。
その結果,特定の個人,すなわち約400個の画像応答ペアに対して,少量のデータで学習したアンサンブル符号化モデルが,同じ個人に対して約24,000個の画像応答ペアで訓練されたモデルと異なる精度が得られることが分かった。
重要なことに、パーソナライズされたアンサンブル符号化モデルは、画像-応答関係における個体間変動のパターンを保存する。
さらに、最近開発されたNeuroGenフレームワーク内でパーソナライズされたアンサンブル符号化モデルを用いて、特定の個体に対する特定の領域の活性化を最大化する最適刺激を生成する。
犬と人間の顔の画像に対する顔領域反応の個人差をアンサンブル符号化モデルを用いたニューロゲンを用いて再現した。
最後に, 提案手法は, 異なるスキャナーと実験的なセットアップを持つ新規個体における画像応答データの集合を検証することで, ドメインシフトに対して頑健であることを示す。
提案手法は, 従来収集した深層サンプルデータを用いて, 正確かつパーソナライズされた符号化モデルを作成し, その後, 異なる実験条件下でスキャンされた新規個体に対する最適な合成画像のパーソナライズを行う可能性を示す。
関連論文リスト
- A Simple Approach to Unifying Diffusion-based Conditional Generation [63.389616350290595]
多様な条件生成タスクを処理するための、シンプルで統一されたフレームワークを導入します。
提案手法は,異なる推論時間サンプリング方式による多目的化を実現する。
我々のモデルは、非親密なアライメントや粗い条件付けのような追加機能をサポートしています。
論文 参考訳(メタデータ) (2024-10-15T09:41:43Z) - Variational autoencoder-based neural network model compression [4.992476489874941]
変分オートエンコーダ(VAE)は、深部生成モデルの一種であり、近年広く使われている。
本稿では,VAEに基づくニューラルネットワークモデル圧縮手法について検討する。
論文 参考訳(メタデータ) (2024-08-25T09:06:22Z) - JeDi: Joint-Image Diffusion Models for Finetuning-Free Personalized Text-to-Image Generation [49.997839600988875]
既存のパーソナライズ手法は、ユーザのカスタムデータセット上でテキスト・ツー・イメージの基礎モデルを微調整することに依存している。
ファインタニングフリーのパーソナライズモデルを学ぶための効果的な手法として,ジョイントイメージ拡散(jedi)を提案する。
本モデルは,従来のファインタニングベースとファインタニングフリーのパーソナライゼーションベースの両方において,定量的かつ定性的に,高い品質を実現する。
論文 参考訳(メタデータ) (2024-07-08T17:59:02Z) - Multimodal Large Language Model is a Human-Aligned Annotator for Text-to-Image Generation [87.50120181861362]
VisionPreferは高品質できめ細かい選好データセットで、複数の選好面をキャプチャする。
我々は、VisionPrefer上で報酬モデルVP-Scoreをトレーニングし、テキストから画像への生成モデルのトレーニングを指導し、VP-Scoreの嗜好予測精度は人間のアノテーションに匹敵する。
論文 参考訳(メタデータ) (2024-04-23T14:53:15Z) - Lafite2: Few-shot Text-to-Image Generation [132.14211027057766]
本稿では,画像のみのデータセットを用いたテキスト・画像生成モデルの事前学習手法を提案する。
擬似テキスト特徴を合成する検索テーマ最適化手法を検討する。
これは、数ショット、半教師あり、完全に教師された学習など、幅広い設定で有益である。
論文 参考訳(メタデータ) (2022-10-25T16:22:23Z) - Few-shot Generation of Personalized Neural Surrogates for Cardiac
Simulation via Bayesian Meta-Learning [6.978382728087236]
メタラーニングの単一コヒーレントフレームワークにおいて、パーソナライズされたニューラルサロゲートを実現するための新しい概念を提案する。
テスト時間として、MetaPNSは個人から利用可能な小さなフレキシブルなデータの高速フィードフォワード埋め込みによって、パーソナライズされたニューラルサロゲートを提供する。
MetaPNSは、従来の最適化心臓シミュレーションモデルと比較して、パーソナライズと予測精度を改善することができた。
論文 参考訳(メタデータ) (2022-10-06T14:59:27Z) - Variational Model Inversion Attacks [26.613251410498755]
モデル反転攻撃では、悪意のあるユーザは、教師付きニューラルネットワークをトレーニングするために使用されるプライベートデータセットを復元しようとします。
成功したモデル反転攻撃は、プライベートデータセット内の各クラスを正確に記述する現実的で多様なサンプルを生成する必要がある。
本研究では,モデル反転攻撃の確率論的解釈を提供し,多様性と精度の両方を考慮に入れた変動目的を定式化する。
論文 参考訳(メタデータ) (2022-01-26T07:39:13Z) - Meta Internal Learning [88.68276505511922]
単一画像生成のための内部学習は、単一の画像に基づいて新しい画像を生成するようにジェネレータを訓練するフレームワークである。
本稿では,サンプル画像の内部統計をより効果的にモデル化するために,画像集合のトレーニングを可能にするメタラーニング手法を提案する。
以上の結果から, 得られたモデルは, 多数の共通画像アプリケーションにおいて, シングルイメージのGANと同程度に適していることがわかった。
論文 参考訳(メタデータ) (2021-10-06T16:27:38Z) - Deep Co-Attention Network for Multi-View Subspace Learning [73.3450258002607]
マルチビューサブスペース学習のための深層コアテンションネットワークを提案する。
共通情報と相補情報の両方を敵意で抽出することを目的としている。
特に、新しいクロス再構成損失を使用し、ラベル情報を利用して潜在表現の構築を誘導する。
論文 参考訳(メタデータ) (2021-02-15T18:46:44Z) - A shared neural encoding model for the prediction of subject-specific
fMRI response [17.020869686284165]
本稿では,個人レベルでの差分を考慮した共有畳み込みニューラルエンコーディング手法を提案する。
本手法は,視覚刺激や聴覚刺激によって誘発される主観的応答の予測を改善するために,多目的データを活用する。
論文 参考訳(メタデータ) (2020-06-29T04:10:14Z) - Pose Manipulation with Identity Preservation [0.0]
本稿では,文字適応性正規化GAN(CainGAN)を提案する。
CainGANは特定の個人から顔の数字を受け取り、その人物の身元を保存しながら新しい顔を生成する。
実験の結果, 生成画像の品質は, 推論時に使用する入力セットのサイズと一致していることがわかった。
論文 参考訳(メタデータ) (2020-04-20T09:51:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。