論文の概要: AI Safety Subproblems for Software Engineering Researchers
- arxiv url: http://arxiv.org/abs/2304.14597v3
- Date: Thu, 31 Aug 2023 04:26:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-24 12:26:22.585762
- Title: AI Safety Subproblems for Software Engineering Researchers
- Title(参考訳): ソフトウェアエンジニアのためのAI安全サブプロブレム
- Authors: David Gros, Prem Devanbu, Zhou Yu
- Abstract要約: 我々は、長期的なAI安全性と、システムが人間の能力を満たしたり超えたりする際に、AIからの害を避けるという課題を簡潔に要約する。
ソフトウェアが機能向上とともにどのように変化するのかを推測し、従来のSE領域に適合する"サブプロブレム"を分類します。
- 参考スコア(独自算出の注目度): 20.606264558332498
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this 4-page manuscript we discuss the problem of long-term AI Safety from
a Software Engineering (SE) research viewpoint. We briefly summarize long-term
AI Safety, and the challenge of avoiding harms from AI as systems meet or
exceed human capabilities, including software engineering capabilities (and
approach AGI / "HLMI"). We perform a quantified literature review suggesting
that AI Safety discussions are not common at SE venues. We make conjectures
about how software might change with rising capabilities, and categorize
"subproblems" which fit into traditional SE areas, proposing how work on
similar problems might improve the future of AI and SE.
- Abstract(参考訳): この4ページの原稿では、ソフトウェア工学(SE)研究の観点から、長期的なAI安全の問題について議論する。
ソフトウェアエンジニアリング機能(AGI / "HLMI" にアプローチする)を含む、システムの人間の能力を満たしたり超えたりしながら、AIから危害を避けるという課題を簡潔に要約する。
我々は,SE会場ではAI安全に関する議論が一般的ではないことを示唆する定量的文献レビューを行う。
私たちは、ソフトウェアが能力の向上によってどのように変化するのかを推測し、従来のSE領域に適合する"サブプロブレム"を分類し、類似した問題に対する作業がAIとSEの将来をどう改善するかを提案しています。
関連論文リスト
- Using AI Assistants in Software Development: A Qualitative Study on Security Practices and Concerns [23.867795468379743]
最近の研究は、AI生成コードがセキュリティ問題を含むことを実証している。
ソフトウェア専門家がAIアシスタントの使用とセキュリティのバランスをとる方法はまだ不明だ。
本稿では,ソフトウェアプロフェッショナルがセキュアなソフトウェア開発にAIアシスタントをどのように利用するかを検討する。
論文 参考訳(メタデータ) (2024-05-10T10:13:19Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - AI in Software Engineering: A Survey on Project Management Applications [3.156791351998142]
機械学習(ML)はデータセットでトレーニングを行うアルゴリズムを採用しており、特定のタスクを自律的に実行することができる。
AIは、特にプロジェクト管理と計画において、ソフトウェアエンジニアリングの分野で大きな可能性を秘めている。
論文 参考訳(メタデータ) (2023-07-27T23:02:24Z) - AI for IT Operations (AIOps) on Cloud Platforms: Reviews, Opportunities
and Challenges [60.56413461109281]
IT運用のための人工知能(AIOps)は、AIのパワーとIT運用プロセスが生成するビッグデータを組み合わせることを目的としている。
我々は、IT運用活動が発信する重要なデータの種類、分析における規模と課題、そしてどのように役立つかについて深く議論する。
主要なAIOpsタスクは、インシデント検出、障害予測、根本原因分析、自動アクションに分類します。
論文 参考訳(メタデータ) (2023-04-10T15:38:12Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Proceedings of the Artificial Intelligence for Cyber Security (AICS)
Workshop at AAAI 2022 [55.573187938617636]
ワークショップは、サイバーセキュリティの問題へのAIの適用に焦点を当てる。
サイバーシステムは大量のデータを生成し、これを効果的に活用することは人間の能力を超えます。
論文 参考訳(メタデータ) (2022-02-28T18:27:41Z) - The application of artificial intelligence in software engineering: a
review challenging conventional wisdom [0.9651131604396904]
この調査章は、ソフトウェア工学に適用されるAIの最も一般的な方法のレビューである。
このレビューでは、1975年から2017年にかけての要件フェーズについて、46の主要なAI駆動手法が発見されている。
この章の目的は、以下の質問に答えることである。
論文 参考訳(メタデータ) (2021-08-03T15:59:59Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Inspect, Understand, Overcome: A Survey of Practical Methods for AI
Safety [54.478842696269304]
安全クリティカルなアプリケーションにディープニューラルネットワーク(DNN)を使用することは、多数のモデル固有の欠点のために困難です。
近年,これらの安全対策を目的とした最先端技術動物園が出現している。
本稿は、機械学習の専門家と安全エンジニアの両方に対処する。
論文 参考訳(メタデータ) (2021-04-29T09:54:54Z) - Explainable AI for Software Engineering [12.552048647904591]
まず、ソフトウェアエンジニアリングにおける説明可能なAIの必要性を強調します。
次に、上記の課題に対処するために、説明可能なAI技術をどのように利用できるか、という3つのケーススタディを要約する。
論文 参考訳(メタデータ) (2020-12-03T00:42:29Z) - On Safety Assessment of Artificial Intelligence [0.0]
人工知能の多くのモデル、特に機械学習は統計モデルであることを示す。
危険なランダム障害の予算の一部は、AIシステムの確率論的欠陥行動に使用される必要がある。
我々は、安全関連システムにおけるAIの利用に決定的な研究課題を提案する。
論文 参考訳(メタデータ) (2020-02-29T14:05:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。