論文の概要: Human-AI Collaboration Mechanism Study on AIGC Assisted Image Production for Special Coverage
- arxiv url: http://arxiv.org/abs/2512.13739v1
- Date: Sun, 14 Dec 2025 16:05:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-17 16:49:26.414739
- Title: Human-AI Collaboration Mechanism Study on AIGC Assisted Image Production for Special Coverage
- Title(参考訳): 特殊被覆のためのAIGC支援画像生成のための人間-AI協調機構の研究
- Authors: Yajie Yang, Yuqing Zhao, Xiaochao Xi, Yinan Zhu,
- Abstract要約: 主な問題は、誤情報、真正性、意味的忠実性、解釈可能性である。
ほとんどのAIGCツールは不透明な"ブラックボックス"であり、コンテンツ精度とセマンティックアライメントの二重要求を妨げる。
本稿では,ジャーナリズムの特別報道における制御可能な画像生成の経路について考察する。
- 参考スコア(独自算出の注目度): 3.3862265832319287
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Artificial Intelligence Generated Content (AIGC) assisting image production triggers controversy in journalism while attracting attention from media agencies. Key issues involve misinformation, authenticity, semantic fidelity, and interpretability. Most AIGC tools are opaque "black boxes," hindering the dual demands of content accuracy and semantic alignment and creating ethical, sociotechnical, and trust dilemmas. This paper explores pathways for controllable image production in journalism's special coverage and conducts two experiments with projects from China's media agency: (1) Experiment 1 tests cross-platform adaptability via standardized prompts across three scenes, revealing disparities in semantic alignment, cultural specificity, and visual realism driven by training-corpus bias and platform-level filtering. (2) Experiment 2 builds a human-in-the-loop modular pipeline combining high-precision segmentation (SAM, GroundingDINO), semantic alignment (BrushNet), and style regulating (Style-LoRA, Prompt-to-Prompt), ensuring editorial fidelity through CLIP-based semantic scoring, NSFW/OCR/YOLO filtering, and verifiable content credentials. Traceable deployment preserves semantic representation. Consequently, we propose a human-AI collaboration mechanism for AIGC assisted image production in special coverage and recommend evaluating Character Identity Stability (CIS), Cultural Expression Accuracy (CEA), and User-Public Appropriateness (U-PA).
- Abstract(参考訳): 画像生成を支援する人工知能生成コンテンツ(AIGC)は、メディアから注目を集めながら、ジャーナリズムにおける論争を引き起こしている。
主な問題は、誤情報、真正性、意味的忠実性、解釈可能性である。
ほとんどのAIGCツールは不透明な「ブラックボックス」であり、コンテンツ精度とセマンティックアライメントの二重要求を妨げ、倫理的、社会技術的、信頼のジレンマを生み出している。
本稿は、ジャーナリズムの特別報道における制御可能な画像生成の経路を探求し、中国メディアのプロジェクトによる2つの実験を行う。(1) 実験1は、3つの場面にわたる標準化されたプロンプトによるクロスプラットフォーム適応性のテストであり、セマンティックアライメント、文化的特異性、およびトレーニングコーパスバイアスとプラットフォームレベルのフィルタリングによって引き起こされる視覚的リアリズムの相違を明らかにする。
2) 実験2では,高精度セグメンテーション (SAM, GroundingDINO), セマンティックアライメント (BrushNet), スタイル調整 (Style-LoRA, Prompt-to-Prompt) を組み合わせたモジュールパイプラインを構築し,CLIPに基づくセマンティックアライメント, NSFW/OCR/YOLOフィルタリング, 検証済みコンテンツ認証による編集精度を確保する。
トレース可能なデプロイメントはセマンティック表現を保存する。
そこで我々は,AIGCによる画像生成支援のための人間とAIの協調機構を提案し,CIS,文化表現精度,U-PAの評価を推奨する。
関連論文リスト
- SafeGen: Embedding Ethical Safeguards in Text-to-Image Generation [0.0]
本稿では,テキスト・ツー・イメージ生成パイプラインに直接倫理的保護を組み込むフレームワークであるSafeGenを紹介する。
SafeGenは、有害または誤解を招くプロンプトをフィルタリングする微調整テキスト分類器であるBGE-M3と、高忠実でセマンティックに整合した画像を生成する最適化された拡散モデルであるHyper-SDの2つの補完的なコンポーネントを統合している。
ケーススタディでは、SafeGenが安全でないプロンプトをブロックし、包括的な教材を生成し、学術的完全性を補強する実践的な影響を説明している。
論文 参考訳(メタデータ) (2025-12-14T00:18:10Z) - Semantic Visual Anomaly Detection and Reasoning in AI-Generated Images [96.43608872116347]
AnomReasonは4倍のtextbfAnomAgentのような構造化アノテーションを備えた大規模ベンチマーク
AnomReasonとAnomAgentは、AI生成画像の意味的妥当性の測定と改善の基盤となっている。
論文 参考訳(メタデータ) (2025-10-11T14:09:24Z) - CoCoNUTS: Concentrating on Content while Neglecting Uninformative Textual Styles for AI-Generated Peer Review Detection [60.52240468810558]
我々は、AI生成ピアレビューの詳細なデータセットの上に構築されたコンテンツ指向ベンチマークであるCoCoNUTSを紹介する。
また、マルチタスク学習フレームワークを介してAIレビュー検出を行うCoCoDetを開発し、レビューコンテンツにおけるAIのより正確で堅牢な検出を実現する。
論文 参考訳(メタデータ) (2025-08-28T06:03:11Z) - Deconstructing Bias: A Multifaceted Framework for Diagnosing Cultural and Compositional Inequities in Text-to-Image Generative Models [3.6335172274433414]
本稿では,CIS(Component Inclusion Score)を指標として,文化的文脈における画像生成の忠実度を評価する。
我々は、構成的脆弱性と文脈的不整合の観点からバイアスを定量化し、西洋と非西洋の文化的プロンプトの間に顕著なパフォーマンスのギャップを浮き彫りにする。
論文 参考訳(メタデータ) (2025-04-05T06:17:43Z) - FakeScope: Large Multimodal Expert Model for Transparent AI-Generated Image Forensics [66.14786900470158]
本稿では,AIによる画像鑑定に適した専門家マルチモーダルモデル(LMM)であるFakeScopeを提案する。
FakeScopeはAI合成画像を高精度に識別し、リッチで解釈可能なクエリ駆動の法医学的な洞察を提供する。
FakeScopeは、クローズドエンドとオープンエンドの両方の法医学的シナリオで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-03-31T16:12:48Z) - YINYANG-ALIGN: Benchmarking Contradictory Objectives and Proposing Multi-Objective Optimization based DPO for Text-to-Image Alignment [6.120756739633247]
YinYangAlignは、テキスト・トゥ・イメージ(T2I)システムのアライメント忠実度を体系的に定量化するフレームワークである。
6つの基本的かつ本質的に矛盾する設計目標に対処する。
YinYangAlignには、人間のプロンプト、アライメントされた(コセン)応答、AI生成出力のミスアライメント(拒絶)、根底にある矛盾の説明を含む詳細なデータセットが含まれている。
論文 参考訳(メタデータ) (2025-02-05T18:46:20Z) - Trustworthy Image Semantic Communication with GenAI: Explainablity, Controllability, and Efficiency [59.15544887307901]
画像意味コミュニケーション(ISC)は,高効率な映像コンテンツ伝送を実現する可能性に注目されている。
既存のISCシステムは、解釈可能性、操作性、互換性の課題に直面している。
我々は、複数の下流推論タスクにGenerative Artificial Intelligence(GenAI)を利用する新しい信頼できるISCフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-07T14:32:36Z) - CLIP-based Synergistic Knowledge Transfer for Text-based Person
Retrieval [66.93563107820687]
個人検索(TPR)のためのCLIPベースのSynergistic Knowledge Transfer(CSKT)アプローチを提案する。
入力側でCLIPの知識を探索するために、まず、テキスト・ツー・イメージと画像・ツー・テキストの双方向プロンプトと結合プロンプトによって構築された双方向プロンプト転送(BPT)モジュールを提案する。
CSKTは、トレーニングパラメータがモデル全体の7.4%を占めるだけで、3つのベンチマークデータセットで最先端のアプローチを上回っている。
論文 参考訳(メタデータ) (2023-09-18T05:38:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。