論文の概要: A Case Study in Acceleration AI Ethics: The TELUS GenAI Conversational Agent
- arxiv url: http://arxiv.org/abs/2501.18038v2
- Date: Wed, 26 Mar 2025 17:50:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-28 12:49:47.483011
- Title: A Case Study in Acceleration AI Ethics: The TELUS GenAI Conversational Agent
- Title(参考訳): 加速度AI倫理の事例研究:TELUS GenAI会話エージェント
- Authors: James Brusseau,
- Abstract要約: 加速倫理は、人工知能におけるイノベーションと安全の間の緊張に対処する。
本稿では, 理論的な立場を要約し, 加速倫理が実例でどのように機能するかを示す。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Acceleration ethics addresses the tension between innovation and safety in artificial intelligence. The acceleration argument is that risks raised by innovation should be answered with still more innovating. This paper summarizes the theoretical position, and then shows how acceleration ethics works in a real case. To begin, the paper summarizes acceleration ethics as composed of five elements: innovation solves innovation problems, innovation is intrinsically valuable, the unknown is encouraging, governance is decentralized, ethics is embedded. Subsequently, the paper illustrates the acceleration framework with a use-case, a generative artificial intelligence language tool developed by the Canadian telecommunications company Telus. While the purity of theoretical positions is blurred by real-world ambiguities, the Telus experience indicates that acceleration AI ethics is a way of maximizing social responsibility through innovation, as opposed to sacrificing social responsibility for innovation, or sacrificing innovation for social responsibility.
- Abstract(参考訳): 加速倫理は、人工知能におけるイノベーションと安全の間の緊張に対処する。
加速の議論は、イノベーションによって引き起こされるリスクは、いまだにより革新的に答えるべきである、ということだ。
本稿では, 理論的な立場を要約し, 加速倫理が実例でどのように機能するかを示す。
イノベーションはイノベーションの問題を解決し、イノベーションは本質的に価値があり、未知のものは奨励し、ガバナンスは分散化され、倫理は組み込まれている。
続いて、カナダの通信会社Telusが開発した生成人工知能言語ツールであるUse-caseを用いて、加速フレームワークについて説明する。
理論的な位置の純度は現実世界の曖昧さによって曖昧にされているが、Telusの経験は、AI倫理の加速はイノベーションによる社会的責任を最大化する方法であり、イノベーションに対する社会的責任を犠牲にしたり、社会的責任のためのイノベーションを犠牲にするものではないことを示している。
関連論文リスト
- Technology as uncharted territory: Contextual integrity and the notion of AI as new ethical ground [55.2480439325792]
私は、責任と倫理的AIを促進する努力が、確立された文脈規範に対するこの軽視に必然的に貢献し、正当化することができると論じます。
私は、道徳的保護よりも道徳的革新のAI倫理における現在の狭い優先順位付けに疑問を呈する。
論文 参考訳(メタデータ) (2024-12-06T15:36:13Z) - Shaping AI's Impact on Billions of Lives [27.78474296888659]
我々は、AI実践者のコミュニティが、共通の善のために意識的に、積極的に働くことを主張する。
本稿は、新しいタイプのイノベーション基盤の青写真を提供する。
論文 参考訳(メタデータ) (2024-12-03T16:29:37Z) - Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - The Dual Imperative: Innovation and Regulation in the AI Era [0.0]
本稿では,人工知能における規制の欠如に伴う社会的コストについて論じる。
50年以上にわたるAI研究は、AIを主流に、有望な経済的利益へと押し上げてきた。
この談話は、加速主義者と、未発の技術的進歩を提唱するドーマー、そしてディストピア的な結果を防ぐための減速を求めるドーマーの間で偏在している。
論文 参考訳(メタデータ) (2024-05-23T08:26:25Z) - An ethical study of generative AI from the Actor-Network Theory perspective [3.0224187843434]
本稿では,ChatGPTをアクターネットワーク理論の枠組みにおけるケーススタディとして分析する。
本稿では,ChatGPTに関する倫理的問題に関わる翻訳のアクターとプロセスについて検討する。
論文 参考訳(メタデータ) (2024-04-10T02:32:19Z) - Control Risk for Potential Misuse of Artificial Intelligence in Science [85.91232985405554]
我々は、科学におけるAI誤用の危険性の認識を高めることを目的としている。
化学科学における誤用の実例を取り上げる。
我々は、科学におけるAIモデルの誤用リスクを制御するSciGuardというシステムを提案する。
論文 参考訳(メタデータ) (2023-12-11T18:50:57Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Artificial Intelligence for Real Sustainability? -- What is Artificial
Intelligence and Can it Help with the Sustainability Transformation? [0.0]
この記事では、AI技術を簡潔に説明し、分類し、理論化する。
そして、持続可能性に関する議論の観点から、その分析を政治的に文脈化する。
持続可能な社会へ進む上で、AIは小さな役割を担っている、と氏は主張する。
論文 参考訳(メタデータ) (2023-06-15T15:40:00Z) - AI Maintenance: A Robustness Perspective [91.28724422822003]
我々は、AIライフサイクルにおけるロバストネスの課題を強調し、自動車のメンテナンスに類似させることで、AIのメンテナンスを動機付ける。
本稿では,ロバストネスリスクの検出と軽減を目的としたAIモデル検査フレームワークを提案する。
我々のAIメンテナンスの提案は、AIライフサイクル全体を通して堅牢性評価、状態追跡、リスクスキャン、モデル硬化、規制を促進する。
論文 参考訳(メタデータ) (2023-01-08T15:02:38Z) - Acceleration AI Ethics, the Debate between Innovation and Safety, and
Stability AI's Diffusion versus OpenAI's Dall-E [0.0]
このプレゼンテーションは、倫理をイノベーションアクセラレータとして再構成することで反応する。
倫理学の研究は、外部からの機能ではなく、AI開発と応用に埋め込まれている。
論文 参考訳(メタデータ) (2022-12-04T14:54:13Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。