論文の概要: Personalized Scientific Figure Caption Generation: An Empirical Study on Author-Specific Writing Style Transfer
- arxiv url: http://arxiv.org/abs/2509.25817v1
- Date: Tue, 30 Sep 2025 05:52:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 17:09:04.445747
- Title: Personalized Scientific Figure Caption Generation: An Empirical Study on Author-Specific Writing Style Transfer
- Title(参考訳): パーソナライズド・サイエント・フィギュア・キャプション・ジェネレーション : 著者特有な書体スタイルの伝達に関する実証的研究
- Authors: Jaeyoung Kim, Jongho Lee, Hongjun Choi, Sion Jang,
- Abstract要約: 学術論文の著者プロファイルデータを用いて、パーソナライズされた人物キャプションの生成について検討する。
著者のスタイルの一致とキャプション品質の維持の基本的なトレードオフを明らかにする。
- 参考スコア(独自算出の注目度): 12.354075334437141
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study personalized figure caption generation using author profile data from scientific papers. Our experiments demonstrate that rich author profile data, combined with relevant metadata, can significantly improve the personalization performance of multimodal large language models. However, we also reveal a fundamental trade-off between matching author style and maintaining caption quality. Our findings offer valuable insights and future directions for developing practical caption automation systems that balance both objectives. This work was conducted as part of the 3rd SciCap challenge.
- Abstract(参考訳): 学術論文の著者プロファイルデータを用いて、パーソナライズされた人物キャプションの生成について検討する。
実験により,リッチな著者プロファイルデータと関連するメタデータを組み合わせることで,マルチモーダルな大規模言語モデルのパーソナライズ性能を大幅に向上できることが示された。
しかし,著者スタイルの整合性とキャプション品質の維持との根本的なトレードオフも明らかにした。
本研究の成果は,両目標のバランスをとる実用的なキャプション自動化システムを開発する上で,貴重な知見と今後の方向性を提供するものである。
この作業は第3回SciCapチャレンジの一環として実施された。
関連論文リスト
- How to Train your Text-to-Image Model: Evaluating Design Choices for Synthetic Training Captions [29.52344052330828]
テキスト・ツー・イメージ・モデルの下流性能に異なる合成キャプション戦略がどのような影響を及ぼすかを検討する。
実験の結果,高品位な字幕はテキストアライメントを高めるが,出力美学や多様性にトレードオフをもたらす可能性が示唆された。
本研究は,最適なモデル性能を実現する上で,キャプション設計の重要性を浮き彫りにした。
論文 参考訳(メタデータ) (2025-06-20T01:52:17Z) - Personalized Graph-Based Retrieval for Large Language Models [51.7278897841697]
ユーザ中心の知識グラフを利用してパーソナライゼーションを強化するフレームワークを提案する。
構造化されたユーザ知識を直接検索プロセスに統合し、ユーザ関連コンテキストにプロンプトを拡大することにより、PGraphはコンテキスト理解と出力品質を向上させる。
また,ユーザ履歴が不足あるいは利用できない実環境において,パーソナライズされたテキスト生成タスクを評価するために設計された,パーソナライズドグラフベースのテキスト生成ベンチマークを導入する。
論文 参考訳(メタデータ) (2025-01-04T01:46:49Z) - Personalized Representation from Personalized Generation [36.848215621708235]
我々は、パーソナライズされた合成データを用いてパーソナライズされた表現を学習するという課題を定式化する。
提案手法は,多様な下流タスクに対するパーソナライズされた表現学習を改善する。
論文 参考訳(メタデータ) (2024-12-20T18:59:03Z) - Capturing Style in Author and Document Representation [4.323709559692927]
著者と文書の埋め込みをスタイリスティックな制約で学習する新しいアーキテクチャを提案する。
本稿では,Gutenbergプロジェクトから抽出した文芸コーパス,Blog Authorship,IMDb62の3つのデータセットについて評価を行った。
論文 参考訳(メタデータ) (2024-07-18T10:01:09Z) - Step-Back Profiling: Distilling User History for Personalized Scientific Writing [50.481041470669766]
大きな言語モデル(LLM)は、さまざまな自然言語処理タスクに優れていますが、個人向けにパーソナライズされたコンテンツを生成するのに苦労しています。
ユーザ履歴を簡潔なプロファイルに抽出することで,LSMをパーソナライズするためのSTEP-BACK ProFIlingを導入する。
本手法は,一般パーソナライゼーションベンチマークにおいて,ベースラインを最大3.6ポイント向上させる。
論文 参考訳(メタデータ) (2024-06-20T12:58:26Z) - Unsupervised Neural Stylistic Text Generation using Transfer learning
and Adapters [66.17039929803933]
応答生成のためのスタイル特化属性を学習するために,モデルパラメータの0.3%しか更新しない新しい転送学習フレームワークを提案する。
我々はPERSONALITY-CAPTIONSデータセットからスタイル固有の属性を学習する。
論文 参考訳(メタデータ) (2022-10-07T00:09:22Z) - PART: Pre-trained Authorship Representation Transformer [52.623051272843426]
文書を書く著者は、自分のテキストに識別情報を印字する。
以前の作品では、手作りの機能や分類タスクを使って著者モデルを訓練していた。
セマンティクスの代わりにテキストの埋め込みを学習するために、対照的に訓練されたモデルを提案する。
論文 参考訳(メタデータ) (2022-09-30T11:08:39Z) - Generating More Pertinent Captions by Leveraging Semantics and Style on
Multi-Source Datasets [56.018551958004814]
本稿では,データソースの非一様結合をトレーニングすることで,流動的な記述を生成するタスクに対処する。
ノイズの多い画像とテキストのペアを持つ大規模データセットは、サブ最適の監視源を提供する。
本稿では,検索コンポーネントから抽出したスタイルトークンとキーワードを組み込むことにより,セマンティクスと記述スタイルを活用・分離することを提案する。
論文 参考訳(メタデータ) (2021-11-24T19:00:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。