論文の概要: Responsible AI for General-Purpose Systems: Overview, Challenges, and A Path Forward
- arxiv url: http://arxiv.org/abs/2601.13122v1
- Date: Mon, 19 Jan 2026 15:10:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:22.942773
- Title: Responsible AI for General-Purpose Systems: Overview, Challenges, and A Path Forward
- Title(参考訳): 汎用システムのための責任あるAI: 概要、課題、そしてこれからの道
- Authors: Gourab K Patro, Himanshi Agrawal, Himanshu Gharat, Supriya Panigrahi, Nim Sherpa, Vishal Vaddina, Dagnachew Birru,
- Abstract要約: 我々は、現代の汎用AIのさまざまなリスクと脆弱性を、8つの広く受け入れられている責任AI(RAI)原則に沿ってレビューする。
これは、汎用AIの出力における非決定論的に高い自由度によるものであると我々は主張する。
我々は、将来の汎用AIシステムのRAI要件を満たすために、C2V2desiderataを導出する。
- 参考スコア(独自算出の注目度): 1.6714765221657821
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Modern general-purpose AI systems made using large language and vision models, are capable of performing a range of tasks like writing text articles, generating and debugging codes, querying databases, and translating from one language to another, which has made them quite popular across industries. However, there are risks like hallucinations, toxicity, and stereotypes in their output that make them untrustworthy. We review various risks and vulnerabilities of modern general-purpose AI along eight widely accepted responsible AI (RAI) principles (fairness, privacy, explainability, robustness, safety, truthfulness, governance, and sustainability) and compare how they are non-existent or less severe and easily mitigable in traditional task-specific counterparts. We argue that this is due to the non-deterministically high Degree of Freedom in output (DoFo) of general-purpose AI (unlike the deterministically constant or low DoFo of traditional task-specific AI systems), and there is a need to rethink our approach to RAI for general-purpose AI. Following this, we derive C2V2 (Control, Consistency, Value, Veracity) desiderata to meet the RAI requirements for future general-purpose AI systems, and discuss how recent efforts in AI alignment, retrieval-augmented generation, reasoning enhancements, etc. fare along one or more of the desiderata. We believe that the goal of developing responsible general-purpose AI can be achieved by formally modeling application- or domain-dependent RAI requirements along C2V2 dimensions, and taking a system design approach to suitably combine various techniques to meet the desiderata.
- Abstract(参考訳): 大規模言語とビジョンモデルを使用した現代の汎用AIシステムは、テキスト記事の作成、コードの生成とデバッギング、データベースのクエリ、ある言語から別の言語への変換など、さまざまなタスクを実行できる。
しかし、そのアウトプットには幻覚、毒性、ステレオタイプのようなリスクがあり、信頼できない。
我々は、現代の汎用AIのさまざまなリスクと脆弱性を、広く受け入れられている8つの責任あるAI(RAI)原則(フェアネス、プライバシ、説明可能性、堅牢性、安全性、真実性、ガバナンス、持続可能性)に沿ってレビューし、従来のタスク固有の原則では、それらが存在しないか、より深刻で、容易に軽減可能であるかを比較します。
これは、汎用AIの出力における非決定論的に高い自由度(DoFo)によるものであり(従来のタスク固有のAIシステムの決定論的に一定あるいは低いDoFoとは違い)、汎用AIに対する我々のアプローチを再考する必要がある。
次に、C2V2(Control, Consistency, Value, Veracity)デシデラタを導出し、将来の汎用AIシステムのRAI要件を満たし、デシデラタの1つ以上のAIアライメント、検索強化世代、推論強化などにおける最近の取り組みについて論じる。
我々は、C2V2次元に沿って、アプリケーション依存またはドメイン依存のRAI要求を形式的にモデル化し、デシダータを満たすために様々なテクニックを適切に組み合わせたシステム設計アプローチを採用することで、責任ある汎用AIを開発するという目標を達成することができると信じている。
関連論文リスト
- Embodied AI: From LLMs to World Models [65.68972714346909]
人工知能(AI)は、人工知能(AGI)を実現するためのインテリジェントシステムパラダイムである。
近年のLarge Language Models(LLMs)とWorld Models(WMs)のブレークスルーは、AIを具現化する上で大きな注目を集めている。
論文 参考訳(メタデータ) (2025-09-24T11:37:48Z) - Generative AI for Autonomous Driving: Frontiers and Opportunities [145.6465312554513]
この調査は、自律運転スタックにおけるGenAIの役割の包括的合成を提供する。
まず、VAE、GAN、拡散モデル、および大規模言語モデルを含む、現代の生成モデリングの原則とトレードオフを蒸留することから始めます。
我々は、合成データ一般化、エンドツーエンド駆動戦略、高忠実なデジタルツインシステム、スマートトランスポートネットワーク、具体化されたAIへのクロスドメイン転送など、実用的な応用を分類する。
論文 参考訳(メタデータ) (2025-05-13T17:59:20Z) - Common Sense Is All You Need [5.280511830552275]
人工知能(AI)は近年大きな進歩を遂げているが、すべての動物に存在する認知の基本的な側面(常識)に悩まされ続けている。
現在のAIシステムは、広範囲の事前知識を必要とせずに、新しい状況に適応する能力に欠けることが多い。
この原稿は、AIシステムに常識を統合することは、真の自律性を達成し、AIの完全な社会的および商業的価値を解放するために不可欠である、と論じている。
論文 参考訳(メタデータ) (2025-01-11T21:23:41Z) - Fundamental Risks in the Current Deployment of General-Purpose AI Models: What Have We (Not) Learnt From Cybersecurity? [60.629883024152576]
大規模言語モデル(LLM)は、幅広いユースケースで急速にデプロイされている。
OpenAIs Alteraは、自律性の向上、データアクセス、実行機能の一例に過ぎない。
これらの方法には、さまざまなサイバーセキュリティ上の課題が伴う。
論文 参考訳(メタデータ) (2024-12-19T14:44:41Z) - Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - Assurance of AI Systems From a Dependability Perspective [0.0]
リスクの高いコンピュータベースのシステムに対する古典的保証の原則を概説する。
次に、人工知能(AI)と機械学習(ML)を用いたシステムへのこれらの原則の適用を検討する。
AIとMLを用いた認識を必要とするガードに対しては、これらの要素に置かれる信頼を最小限にする方法を検討する。
論文 参考訳(メタデータ) (2024-07-18T23:55:43Z) - Towards Guaranteed Safe AI: A Framework for Ensuring Robust and Reliable AI Systems [88.80306881112313]
我々は、AI安全性に対する一連のアプローチを紹介し、定義する。
これらのアプローチの中核的な特徴は、高保証の定量的安全性保証を備えたAIシステムを作ることである。
これら3つのコアコンポーネントをそれぞれ作成するためのアプローチを概説し、主な技術的課題を説明し、それらに対する潜在的なソリューションをいくつか提案します。
論文 参考訳(メタデータ) (2024-05-10T17:38:32Z) - General Purpose Artificial Intelligence Systems (GPAIS): Properties,
Definition, Taxonomy, Societal Implications and Responsible Governance [16.030931070783637]
汎用人工知能システム(GPAIS)は、これらのAIシステムを指すものとして定義されている。
これまで、人工知能の可能性は、まるで人間であるかのように知的タスクを実行するのに十分強力であり、あるいはそれを改善することさえ可能であり、いまだに願望、フィクションであり、我々の社会にとっての危険であると考えられてきた。
本研究は,GPAISの既存の定義について論じ,その特性や限界に応じて,GPAISの種類間で段階的な分化を可能にする新しい定義を提案する。
論文 参考訳(メタデータ) (2023-07-26T16:35:48Z) - Never trust, always verify : a roadmap for Trustworthy AI? [12.031113181911627]
我々はAIベースのシステムのコンテキストにおける信頼を検証し、AIシステムが信頼に値するものとなることの意味を理解する。
我々は、AIに対する信頼(resp. zero-trust)モデルを提案し、AIシステムの信頼性を保証するために満足すべき特性のセットを提案する。
論文 参考訳(メタデータ) (2022-06-23T21:13:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。