論文の概要: Qwerty AI: Explainable Automated Age Rating and Content Safety Assessment for Russian-Language Screenplays
- arxiv url: http://arxiv.org/abs/2601.04211v1
- Date: Wed, 10 Dec 2025 17:41:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-11 18:48:17.615621
- Title: Qwerty AI: Explainable Automated Age Rating and Content Safety Assessment for Russian-Language Screenplays
- Title(参考訳): Qwerty AI: 説明可能な年齢自動評価と,ロシア言語脚本のコンテンツ安全性評価
- Authors: Nikita Zmanovskii,
- Abstract要約: 我々は、ロシア語の脚本の年齢自動評価とコンテンツ安全性評価のためのエンドツーエンドシステムであるQwerty AIを提案する。
システムはフル長のスクリプト(最大700ページを2分以内で処理し、物語単位に分割する。
5つのカテゴリー(違反、性的内容、暴言、物質、恐ろしい要素)にわたるコンテンツ違反を検出し、説明可能な正当化で年齢評価を割り当てる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present Qwerty AI, an end-to-end system for automated age-rating and content-safety assessment of Russian-language screenplays according to Federal Law No. 436-FZ. The system processes full-length scripts (up to 700 pages in under 2 minutes), segments them into narrative units, detects content violations across five categories (violence, sexual content, profanity, substances, frightening elements), and assigns age ratings (0+, 6+, 12+, 16+, 18+) with explainable justifications. Our implementation leverages a fine-tuned Phi-3-mini model with 4-bit quantization, achieving 80% rating accuracy and 80-95% segmentation precision (format-dependent). The system was developed under strict constraints: no external API calls, 80GB VRAM limit, and <5 minute processing time for average scripts. Deployed on Yandex Cloud with CUDA acceleration, Qwerty AI demonstrates practical applicability for production workflows. We achieved these results during the Wink hackathon (November 2025), where our solution addressed real editorial challenges in the Russian media industry.
- Abstract(参考訳): 我々は、連邦法No.436-FZに従って、ロシア語の脚本の年齢自動評価とコンテンツ安全性評価のためのエンドツーエンドシステムであるQwerty AIを提案する。
システムは、フル長のスクリプト(最大700ページから2分以内)を処理し、物語単位に分割し、5つのカテゴリ(違反、性的内容、暴言、物質、恐ろしい要素)にわたるコンテンツ違反を検出し、説明可能な正当化とともに年齢評価(0+、6+、12+、16+、18+)を割り当てる。
本実装では,4ビット量子化を用いた微調整Phi-3-miniモデルを用いて,80%のレーティング精度と80-95%のセグメンテーション精度(形式に依存しない)を実現する。
このシステムは、外部API呼び出しなし、80GBのVRAM制限、平均スクリプトの処理時間<5分>という厳格な制約の下で開発された。
CUDAアクセラレーションを備えたYandex Cloud上にデプロイされたQwerty AIは、運用ワークフローに実用的な適用性を示している。
われわれは2025年11月のWinkハッカソンでこの結果を得た。
関連論文リスト
- A Hybrid Architecture for Multi-Stage Claim Document Understanding: Combining Vision-Language Models and Machine Learning for Real-Time Processing [0.0]
請求書は医療や保険業務に基本的であり、返済、監査、コンプライアンスの基盤となっている。
本稿では,多言語光文字認識(OCR)エンジンのPaddleOCR,従来のロジスティック回帰,コンパクトビジョンランゲージモデル(VLM),Qwen 2.5-VL-7Bを統合した多段パイプラインを提案する。
提案システムでは,文書毎の処理遅延を平均2秒以下に抑えながら,95%以上の文書型分類精度とフィールドレベルの抽出精度を約87%とする。
論文 参考訳(メタデータ) (2026-01-05T08:40:44Z) - ShotBench: Expert-Level Cinematic Understanding in Vision-Language Models [87.43784424444128]
映画言語理解に特化したベンチマークであるShotBenchを紹介する。
画像とビデオクリップから3.5k以上の専門家によるQAペアを収録し、200本以上の称賛された(オスカー賞にノミネートされた)映画から細心の注意を払ってキュレートしている。
ShotBench上でのビジョン・ランゲージ・モデル24件の評価では,特に細粒度の視覚的手がかりや複雑な空間的推論に苦慮している。
論文 参考訳(メタデータ) (2025-06-26T15:09:21Z) - LENS: Multi-level Evaluation of Multimodal Reasoning with Large Language Models [59.0256377330646]
Lensは3.4Kの現代画像と8つのタスクと12の日次シナリオをカバーする60K以上の人間による質問のベンチマークである。
このデータセットは本質的に、基本的な知覚から構成的推論に至るまで、画像不変のプロンプトを処理するためのMLLMの評価をサポートする。
我々は,Qwen2.5-VL-72B,InternVL3-78B,GPT-4oおよび2つの推論モデルQVQ-72B-previewとKim-VLなどの15以上のフロンティアMLLMを評価する。
論文 参考訳(メタデータ) (2025-05-21T15:06:59Z) - LOVE: Benchmarking and Evaluating Text-to-Video Generation and Video-to-Text Interpretation [46.994391428519776]
AI生成ビデオ評価のための包括的なデータセットとベンチマークであるAIGVE-60Kを提案する。
本稿では,LMMに基づくAIGV評価尺度であるLOVEを提案する。
論文 参考訳(メタデータ) (2025-05-17T17:49:26Z) - ETVA: Evaluation of Text-to-Video Alignment via Fine-grained Question Generation and Answering [35.57757342886499]
細かな質問生成と回答によるテキスト・ビデオ・アライメントの新たな評価手法であるETVAを提案する。
ETVA はSpearman の相関係数 58.47 を達成し,既存の31.0 の指標よりも人間の判断との相関性が高いことを示した。
また,テキストとビデオのアライメント評価に特化して設計されたベンチマークを構築し,10のカテゴリにまたがる2kの多様なプロンプトと12kのアトミックな質問を特徴付ける。
論文 参考訳(メタデータ) (2025-03-21T05:52:50Z) - SOPBench: Evaluating Language Agents at Following Standard Operating Procedures and Constraints [59.645885492637845]
SOPBenchは、各サービス固有のSOPコードプログラムを実行可能な関数の有向グラフに変換する評価パイプラインである。
提案手法では,各サービス固有のSOPコードプログラムを実行可能関数の有向グラフに変換し,自然言語SOP記述に基づいてこれらの関数を呼び出しなければならない。
我々は18の先行モデルを評価し、上位モデルでさえタスクが困難であることを示す。
論文 参考訳(メタデータ) (2025-03-11T17:53:02Z) - Streamlining Systematic Reviews: A Novel Application of Large Language Models [1.921297555859566]
体系的レビュー(SR)はエビデンスに基づくガイドラインに不可欠であるが、しばしば文学スクリーニングの時間的な性質によって制限される。
そこで本研究では,大言語モデル(LLM)をベースとした社内システムを提案し,その性能評価を行った。
論文 参考訳(メタデータ) (2024-12-14T17:08:34Z) - ScreenWriter: Automatic Screenplay Generation and Movie Summarisation [55.20132267309382]
ビデオコンテンツは、ユーザーがキープロットポイントをリコールしたり、見ずに概要を見ることができるようなテキスト記述や要約の需要を駆り立ててきた。
本稿では,映像のみを操作し,対話,話者名,シーンブレーク,視覚的記述を含む出力を生成するScreenWriterを提案する。
ScreenWriterは、映像を視覚ベクトルのシーケンスに基づいてシーンに分割する新しいアルゴリズムを導入し、アクターの顔のデータベースに基づく文字名決定の難しい問題に対する新しい方法を提案する。
論文 参考訳(メタデータ) (2024-10-17T07:59:54Z) - Introducing v0.5 of the AI Safety Benchmark from MLCommons [101.98401637778638]
本稿では,MLCommons AI Safety Working Groupが作成したAI Safety Benchmarkのv0.5を紹介する。
このベンチマークは、チャットチューニング言語モデルを使用するAIシステムの安全性リスクを評価するように設計されている。
論文 参考訳(メタデータ) (2024-04-18T15:01:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。