論文の概要: ArchiveGPT: A human-centered evaluation of using a vision language model for image cataloguing
- arxiv url: http://arxiv.org/abs/2507.07551v1
- Date: Thu, 10 Jul 2025 08:49:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-11 16:40:15.331831
- Title: ArchiveGPT: A human-centered evaluation of using a vision language model for image cataloguing
- Title(参考訳): ArchiveGPT:画像カタログ化のための視覚言語モデルを用いた人間中心評価
- Authors: Line Abele, Gerrit Anders, Tolgahan Aydın, Jürgen Buder, Helen Fischer, Dominik Kimmel, Markus Huff,
- Abstract要約: 本研究は,Al生成カタログ記述が人文品質を近似できるかどうかを考察する。
VLM(InternVL2)は、考古学的内容のラベル付き段ボールマウントに写真プリントのカタログ記述を作成した。
発見者は、AIがドラフト生成をサポートするが、人間の検証に従属する共同アプローチを提唱する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The accelerating growth of photographic collections has outpaced manual cataloguing, motivating the use of vision language models (VLMs) to automate metadata generation. This study examines whether Al-generated catalogue descriptions can approximate human-written quality and how generative Al might integrate into cataloguing workflows in archival and museum collections. A VLM (InternVL2) generated catalogue descriptions for photographic prints on labelled cardboard mounts with archaeological content, evaluated by archive and archaeology experts and non-experts in a human-centered, experimental framework. Participants classified descriptions as AI-generated or expert-written, rated quality, and reported willingness to use and trust in AI tools. Classification performance was above chance level, with both groups underestimating their ability to detect Al-generated descriptions. OCR errors and hallucinations limited perceived quality, yet descriptions rated higher in accuracy and usefulness were harder to classify, suggesting that human review is necessary to ensure the accuracy and quality of catalogue descriptions generated by the out-of-the-box model, particularly in specialized domains like archaeological cataloguing. Experts showed lower willingness to adopt AI tools, emphasizing concerns on preservation responsibility over technical performance. These findings advocate for a collaborative approach where AI supports draft generation but remains subordinate to human verification, ensuring alignment with curatorial values (e.g., provenance, transparency). The successful integration of this approach depends not only on technical advancements, such as domain-specific fine-tuning, but even more on establishing trust among professionals, which could both be fostered through a transparent and explainable AI pipeline.
- Abstract(参考訳): 写真コレクションの成長が加速するにつれて、手作業によるカタログ作成が増加し、メタデータの自動生成に視覚言語モデル(VLM)の使用が動機となった。
本研究は,Al生成カタログ記述が人文品質を近似しうるか,Al生成が古文書コレクションや博物館コレクションのカタログワークフローにどのように組み込まれるかを検討する。
VLM (InternVL2) は、人中心の実験的な枠組みにおいて、考古学的内容のラベル付き段ボールマウントの写真プリントのカタログ記述を作成し、アーカイブや考古学の専門家や非専門家によって評価された。
参加者は、記述をAI生成または専門家によって書かれた、評価された品質に分類し、AIツールの使用と信頼の意思を報告した。
分類性能は、どちらのグループもAl生成した記述を検出する能力を過小評価している。
OCRの誤りと幻覚は知覚された品質に制限されるが、正確さと有用性で評価された記述は分類するのが困難であり、特に考古学的カタログ作成のような専門分野において、アウト・オブ・ザ・ボックス・モデルによって生成されたカタログ記述の正確さと品質を保証するために人間によるレビューが必要であることを示唆している。
専門家はAIツールの採用意欲を低くし、技術的パフォーマンスに対する保全責任への懸念を強調した。
これらの発見は、AIがドラフト生成をサポートするが、人間の検証に従属し、カリキュラムの値(例えば、証明、透明性)との整合性を確保する、協調的なアプローチを提唱する。
このアプローチの正常な統合は、ドメイン固有の微調整のような技術的な進歩だけでなく、プロ間の信頼を確立することにも依存します。
関連論文リスト
- The AI Imperative: Scaling High-Quality Peer Review in Machine Learning [49.87236114682497]
AIによるピアレビューは、緊急の研究とインフラの優先事項になるべきだ、と私たちは主張する。
我々は、事実検証の強化、レビュアーのパフォーマンスの指導、品質改善における著者の支援、意思決定におけるAC支援におけるAIの具体的な役割を提案する。
論文 参考訳(メタデータ) (2025-06-09T18:37:14Z) - FakeScope: Large Multimodal Expert Model for Transparent AI-Generated Image Forensics [66.14786900470158]
本稿では,AIによる画像鑑定に適した専門家マルチモーダルモデル(LMM)であるFakeScopeを提案する。
FakeScopeはAI合成画像を高精度に識別し、リッチで解釈可能なクエリ駆動の法医学的な洞察を提供する。
FakeScopeは、クローズドエンドとオープンエンドの両方の法医学的シナリオで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-03-31T16:12:48Z) - Trust at Your Own Peril: A Mixed Methods Exploration of the Ability of Large Language Models to Generate Expert-Like Systems Engineering Artifacts and a Characterization of Failure Modes [0.0]
そこでは,人間の専門家が作成したSEアーティファクトをベンチマークとして用いた経験的探索の結果を報告する。
次に、AI生成されたアーティファクトとベンチマークを比較するために、2倍の混合メソッドアプローチを採用しました。
2つの素材は非常に似ているように見えるが、AIが生成したアーティファクトは深刻な障害モードを示しており、検出は困難である。
論文 参考訳(メタデータ) (2025-02-13T17:05:18Z) - Multi-Modal Prompt Learning on Blind Image Quality Assessment [65.0676908930946]
画像品質評価(IQA)モデルは意味情報から大きな恩恵を受け、異なる種類のオブジェクトを明瞭に扱うことができる。
十分な注釈付きデータが不足している従来の手法では、セマンティックな認識を得るために、CLIPイメージテキスト事前学習モデルをバックボーンとして使用していた。
近年のアプローチでは、このミスマッチに即時技術を使って対処する試みがあるが、これらの解決策には欠点がある。
本稿では、IQAのための革新的なマルチモーダルプロンプトベースの手法を提案する。
論文 参考訳(メタデータ) (2024-04-23T11:45:32Z) - Quantitative Assurance and Synthesis of Controllers from Activity
Diagrams [4.419843514606336]
確率的モデル検査は、定性的および定量的な性質を自動検証するために広く用いられている形式的検証手法である。
これにより、必要な知識を持っていない研究者やエンジニアにはアクセスできない。
本稿では,確率時間の新しいプロファイル,品質アノテーション,3つのマルコフモデルにおけるADの意味論的解釈,アクティビティ図からPRISM言語への変換ルールのセットなど,ADの総合的な検証フレームワークを提案する。
最も重要なことは、モデルをベースとした手法を用いて、完全自動検証のための変換アルゴリズムを開発し、QASCADと呼ばれるツールで実装したことです。
論文 参考訳(メタデータ) (2024-02-29T22:40:39Z) - Document AI: A Comparative Study of Transformer-Based, Graph-Based
Models, and Convolutional Neural Networks For Document Layout Analysis [3.231170156689185]
Document AIは、自然言語処理とコンピュータビジョン技術を活用して、文書を自動的に分析することを目的としている。
Document AIの主要なタスクの1つはドキュメントレイアウト分析であり、レイアウト、画像、テキストの内容と空間的関係を解釈することでドキュメントページを構造化する。
論文 参考訳(メタデータ) (2023-08-29T16:58:03Z) - Beyond Labels: Empowering Human Annotators with Natural Language
Explanations through a Novel Active-Learning Architecture [43.85335847262138]
現実世界のドメインの専門家(医師など)は、説明なしに日々のワークフローで意思決定ラベルに注釈を付けることは滅多にない。
本研究は,アノテーションのラベル付けと説明の現実的ニーズを支援するための,新しいアクティブラーニングアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-05-22T04:38:10Z) - A Diagnostic Study of Explainability Techniques for Text Classification [52.879658637466605]
既存の説明可能性技術を評価するための診断特性のリストを作成する。
そこで本研究では, モデルの性能と有理性との整合性の関係を明らかにするために, 説明可能性手法によって割り当てられた有理性スコアと有理性入力領域の人間のアノテーションを比較した。
論文 参考訳(メタデータ) (2020-09-25T12:01:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。