論文の概要: tl;dr: Chill, y'all: AI Will Not Devour SE
- arxiv url: http://arxiv.org/abs/2409.00764v1
- Date: Sun, 1 Sep 2024 16:16:33 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-06 09:11:31.827914
- Title: tl;dr: Chill, y'all: AI Will Not Devour SE
- Title(参考訳): tl;dr: 冷たくて、みんな: AIはSEを死なない
- Authors: Eunsuk Kang, Mary Shaw,
- Abstract要約: ソーシャルメディアは、人工知能(AI)がソフトウェアエンジニアリング(SE)を無関係または時代遅れにする、という厳しい警告の着実にダイエットを提供する。
逆に、ソフトウェアのエンジニアリングの規律は豊かで堅牢です。
マシンラーニング、大規模言語モデル(LLM)、生成AIは、SEのモデルとメソッドを拡張する新たな機会を提供する。
- 参考スコア(独自算出の注目度): 5.77648992672856
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Social media provide a steady diet of dire warnings that artificial intelligence (AI) will make software engineering (SE) irrelevant or obsolete. To the contrary, the engineering discipline of software is rich and robust; it encompasses the full scope of software design, development, deployment, and practical use; and it has regularly assimilated radical new offerings from AI. Current AI innovations such as machine learning, large language models (LLMs) and generative AI will offer new opportunities to extend the models and methods of SE. They may automate some routine development processes, and they will bring new kinds of components and architectures. If we're fortunate they may force SE to rethink what we mean by correctness and reliability. They will not, however, render SE irrelevant.
- Abstract(参考訳): ソーシャルメディアは、人工知能(AI)がソフトウェアエンジニアリング(SE)を無関係または時代遅れにする、という厳しい警告の着実にダイエットを提供する。
それとは対照的に、ソフトウェアのエンジニアリングの規律は豊かで堅牢であり、ソフトウェア設計、開発、デプロイメント、実用の全範囲を包含しており、AIからの急進的な新製品を定期的に同化している。
機械学習、大規模言語モデル(LLM)、生成AIといった現在のAI革新は、SEのモデルとメソッドを拡張する新たな機会を提供する。
定期的な開発プロセスを自動化することもでき、新しい種類のコンポーネントやアーキテクチャをもたらすでしょう。
幸運なことに、SEを正しさと信頼性で再考せざるを得ないかもしれません。
しかし、彼らはSEを無関係としない。
関連論文リスト
- Development of an Adaptive Multi-Domain Artificial Intelligence System Built using Machine Learning and Expert Systems Technologies [0.0]
人工知能(AGI)は、人工知能(AI)研究においてしばらくの間、明白な目標であった。
AGIは、人間のように、新しい問題領域にさらされ、それを学び、推論プロセスを使って意思決定する能力を持つでしょう。
本稿では,AGIの製作に向けての歩みについて述べる。
論文 参考訳(メタデータ) (2024-06-17T07:21:44Z) - The Rise and Fall(?) of Software Engineering [3.89270408835787]
ソフトウェア工学へのAIのスムーズな統合に不可欠な重要な要素を概説することを目指している。
まず、SEとAIの進化について簡単に説明する。その後、AI駆動の自動化と人間のイノベーションの間の複雑な相互作用を掘り下げる。
論文 参考訳(メタデータ) (2024-06-14T15:50:24Z) - Prompt Sapper: A LLM-Empowered Production Tool for Building AI Chains [31.080896878139402]
我々は、AIチェーンの概念を提案し、ソフトウェア工学で何十年にもわたって蓄積されてきたベストプラクティスとプラクティスをAIチェーンエンジニアリングに導入する。
また、AIチェーンの構築プロセスにおいて、これらのAIチェーンのエンジニアリング原則とパターンを自然に具現化する、コード統合開発環境であるPrompt Sapperも開発しています。
論文 参考訳(メタデータ) (2023-06-21T05:31:00Z) - Prompt Sapper: LLM-Empowered Software Engineering Infrastructure for
AI-Native Services [37.05145017386908]
Prompt SapperはAIチェーンエンジニアリングによるAIネイティブサービスの開発をサポートすることを約束している。
それは、人間とAIの協調的なインテリジェンスを通じてAIチェーンをオーサリングするための、ソフトウェアエンジニアリングインフラストラクチャの強化された大きな言語モデル(LLM)を作成する。
この記事では、Prompt Sapperの背後にあるR&Dモチベーションと、それに対応するAIチェーンエンジニアリング方法論と技術的なプラクティスを紹介する。
論文 参考訳(メタデータ) (2023-06-04T01:47:42Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Selected Trends in Artificial Intelligence for Space Applications [69.3474006357492]
この章は、差別化可能なインテリジェンスとオンボード機械学習に焦点を当てている。
欧州宇宙機関(ESA)Advanced Concepts Team(ACT)から選ばれたいくつかのプロジェクトについて論じる。
論文 参考訳(メタデータ) (2022-12-10T07:49:50Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Enabling Automated Machine Learning for Model-Driven AI Engineering [60.09869520679979]
モデル駆動型ソフトウェアエンジニアリングとモデル駆動型AIエンジニアリングを実現するための新しいアプローチを提案する。
特に、私たちはAutomated MLをサポートし、AI集約システムの開発において、AIの深い知識のないソフトウェアエンジニアを支援します。
論文 参考訳(メタデータ) (2022-03-06T10:12:56Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Time for AI (Ethics) Maturity Model Is Now [15.870654219935972]
この記事では、AIソフトウェアはまだソフトウェアであり、ソフトウェア開発の観点からアプローチする必要がある、と論じる。
我々は、AI倫理に重点を置くべきか、それともより広く、AIシステムの品質に重点を置くべきかを議論したい。
論文 参考訳(メタデータ) (2021-01-29T17:37:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。