論文の概要: AssurAI: Experience with Constructing Korean Socio-cultural Datasets to Discover Potential Risks of Generative AI
- arxiv url: http://arxiv.org/abs/2511.20686v1
- Date: Thu, 20 Nov 2025 13:59:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-27 18:37:58.743952
- Title: AssurAI: Experience with Constructing Korean Socio-cultural Datasets to Discover Potential Risks of Generative AI
- Title(参考訳): AssurAI: 生成AIの潜在的なリスクを明らかにするための韓国のソシオカルチャーデータセット構築の経験
- Authors: Chae-Gyun Lim, Seung-Ho Han, EunYoung Byun, Jeongyun Han, Soohyun Cho, Eojin Joo, Heehyeon Kim, Sieun Kim, Juhoon Lee, Hyunsoo Lee, Dongkun Lee, Jonghwan Hyeon, Yechan Hwang, Young-Jun Lee, Kyeongryul Lee, Minhyeong An, Hyunjun Ahn, Jeongwoo Son, Junho Park, Donggyu Yoon, Taehyung Kim, Jeemin Kim, Dasom Choi, Kwangyoung Lee, Hyunseung Lim, Yeohyun Jung, Jongok Hong, Sooyohn Nam, Joonyoung Park, Sungmin Na, Yubin Choi, Jeanne Choi, Yoojin Hong, Sueun Jang, Youngseok Seo, Somin Park, Seoungung Jo, Wonhye Chae, Yeeun Jo, Eunyoung Kim, Joyce Jiyoung Whang, HwaJung Hong, Joseph Seering, Uichin Lee, Juho Kim, Sunna Choi, Seokyeon Ko, Taeho Kim, Kyunghoon Kim, Myungsik Ha, So Jung Lee, Jemin Hwang, JoonHo Kwak, Ho-Jin Choi,
- Abstract要約: 我々は、生成AIの安全性を評価するための、韓国の新たな品質管理マルチモーダルデータセットAssurAIを紹介する。
韓国の社会文化的文脈における普遍的な害と関連性の両方をカバーするために,確立された枠組みから適応した,35の異なるAIリスク要因の分類法を定義した。
AssurAIは、テキスト、画像、ビデオ、オーディオにまたがる11,480のインスタンスからなる大規模な韓国のマルチモーダルデータセットである。
- 参考スコア(独自算出の注目度): 50.802995291689086
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The rapid evolution of generative AI necessitates robust safety evaluations. However, current safety datasets are predominantly English-centric, failing to capture specific risks in non-English, socio-cultural contexts such as Korean, and are often limited to the text modality. To address this gap, we introduce AssurAI, a new quality-controlled Korean multimodal dataset for evaluating the safety of generative AI. First, we define a taxonomy of 35 distinct AI risk factors, adapted from established frameworks by a multidisciplinary expert group to cover both universal harms and relevance to the Korean socio-cultural context. Second, leveraging this taxonomy, we construct and release AssurAI, a large-scale Korean multimodal dataset comprising 11,480 instances across text, image, video, and audio. Third, we apply the rigorous quality control process used to ensure data integrity, featuring a two-phase construction (i.e., expert-led seeding and crowdsourced scaling), triple independent annotation, and an iterative expert red-teaming loop. Our pilot study validates AssurAI's effectiveness in assessing the safety of recent LLMs. We release AssurAI to the public to facilitate the development of safer and more reliable generative AI systems for the Korean community.
- Abstract(参考訳): 生成AIの急速な進化は、堅牢な安全性評価を必要とする。
しかし、現在の安全データセットは主に英語中心であり、韓国語のような非英語の社会文化的文脈における特定のリスクを捉えることができず、しばしばテキストのモダリティに制限される。
このギャップに対処するために、生成AIの安全性を評価するための、韓国の新たな品質管理マルチモーダルデータセットAssurAIを紹介する。
まず,多分野の専門家グループによって確立された枠組みから,韓国の社会文化的文脈における普遍的害と関連性の両方を網羅した,35の異なるAIリスクファクターの分類を定義した。
第2に,この分類を利用した韓国の大規模マルチモーダルデータセットAssurAIを,テキスト,画像,ビデオ,音声にまたがる11,480のインスタンスで構築・リリースする。
第3に、データ整合性を確保するために用いられる厳密な品質制御プロセスを適用し、二相構成(すなわち、エキスパート主導のシードとクラウドソースのスケーリング)、トリプル独立アノテーション、反復的専門家のレッドチームループを特徴とする。
本研究は,最近のLSMの安全性評価におけるAssurAIの有効性を検証するものである。
我々は,韓国のコミュニティのために,より安全で信頼性の高い生成AIシステムの開発を促進するために,AssurAIを一般公開する。
関連論文リスト
- Never Compromise to Vulnerabilities: A Comprehensive Survey on AI Governance [211.5823259429128]
本研究は,本質的セキュリティ,デリバティブ・セキュリティ,社会倫理の3つの柱を中心に構築された,技術的・社会的次元を統合した包括的枠組みを提案する。
我々は,(1)防衛が進化する脅威に対して失敗する一般化ギャップ,(2)現実世界のリスクを無視する不適切な評価プロトコル,(3)矛盾する監視につながる断片的な規制,の3つの課題を特定する。
私たちのフレームワークは、研究者、エンジニア、政策立案者に対して、堅牢でセキュアなだけでなく、倫理的に整合性があり、公的な信頼に値するAIシステムを開発するための実用的なガイダンスを提供します。
論文 参考訳(メタデータ) (2025-08-12T09:42:56Z) - Preserving Cultural Identity with Context-Aware Translation Through Multi-Agent AI Systems [0.4218593777811082]
言語は文化的アイデンティティの基盤となっているが、グローバル化と主要言語の優位性により、3000近い言語が絶滅の危機にさらされている。
既存のAI駆動翻訳モデルは効率を優先するが、しばしば文化的ニュアンス、慣用的な表現、歴史的重要性を捉えない。
本稿では,言語コミュニティにおける文化適応型翻訳のための多言語AIフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-05T06:43:59Z) - AILuminate: Introducing v1.0 of the AI Risk and Reliability Benchmark from MLCommons [62.374792825813394]
本稿ではAI製品リスクと信頼性を評価するための業界標準ベンチマークとして,AIluminate v1.0を紹介する。
このベンチマークは、危険、違法、または望ましくない行動を12の危険カテゴリーで引き起こすように設計されたプロンプトに対するAIシステムの抵抗を評価する。
論文 参考訳(メタデータ) (2025-02-19T05:58:52Z) - Generative AI and Large Language Models in Language Preservation: Opportunities and Challenges [0.0]
Generative AI(GenAI)とLarge Language Models(LLM)は、コーパス生成、転写、翻訳、学習を自動化する新たなフロンティアをアンロックする。
本稿では、言語固有のニーズに対してGenAIアプリケーションを体系的に評価する新しい分析フレームワークを提案する。
コミュニティ主導の音声認識などの成功例を92%の精度で再現するTe Reo M=aori再活性化による有効性を示す。
我々の知見は、GenAIが言語保存に革命をもたらすことは確かだが、介入がコミュニティ中心のデータスチュワードシップ、継続的な評価、透明なリスク管理に厳格に固定されている場合に限られる。
論文 参考訳(メタデータ) (2025-01-20T14:03:40Z) - Exploring the Assessment List for Trustworthy AI in the Context of
Advanced Driver-Assistance Systems [5.386962356892352]
欧州委員会は専門家をAI専門家グループ(AI-HLEG)に任命した
AI-HLEGは、信頼できるAIを(1)合法的、2)倫理的、3)堅牢で指定された7つの重要な要件と定義しました。
本稿では,ALTAIを高度運転支援システムの開発プロジェクトに適用した実例について述べる。
論文 参考訳(メタデータ) (2021-03-04T21:48:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。