論文の概要: IDs for AI Systems
- arxiv url: http://arxiv.org/abs/2406.12137v3
- Date: Mon, 28 Oct 2024 19:15:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-30 13:37:09.502064
- Title: IDs for AI Systems
- Title(参考訳): AIシステムのためのID
- Authors: Alan Chan, Noam Kolt, Peter Wills, Usman Anwar, Christian Schroeder de Witt, Nitarshan Rajkumar, Lewis Hammond, David Krueger, Lennart Heim, Markus Anderljung,
- Abstract要約: 本稿では,AIシステムのインスタンスにIDを付加するフレームワークを提案する。
我々は、重要なアクターからのIDに対する大きな需要があるかもしれないと論じている。
さらなる研究により、IDはAIシステムが社会に浸透する世界を管理するのに役立つかもしれない。
- 参考スコア(独自算出の注目度): 8.810836113176723
- License:
- Abstract: AI systems are increasingly pervasive, yet information needed to decide whether and how to engage with them may not exist or be accessible. A user may not be able to verify whether a system has certain safety certifications. An investigator may not know whom to investigate when a system causes an incident. It may not be clear whom to contact to shut down a malfunctioning system. Across a number of domains, IDs address analogous problems by identifying particular entities (e.g., a particular Boeing 747) and providing information about other entities of the same class (e.g., some or all Boeing 747s). We propose a framework in which IDs are ascribed to instances of AI systems (e.g., a particular chat session with Claude 3), and associated information is accessible to parties seeking to interact with that system. We characterize IDs for AI systems, provide concrete examples where IDs could be useful, argue that there could be significant demand for IDs from key actors, analyze how those actors could incentivize ID adoption, explore a potential implementation of our framework for deployers of AI systems, and highlight limitations and risks. IDs seem most warranted in settings where AI systems could have a large impact upon the world, such as in making financial transactions or contacting real humans. With further study, IDs could help to manage a world where AI systems pervade society.
- Abstract(参考訳): AIシステムはますます普及しているが、それらをどう扱うかを決めるのに必要な情報は存在せず、アクセスもできない。
ユーザーは、システムが特定の安全認証を持っているかどうかを検証できないかもしれない。
調査官は、システムがいつインシデントを発生させるか、誰が調査すべきかを知らないかもしれない。
誰が接触して機能不全のシステムをシャットダウンするかは、はっきりしないかもしれない。
多くのドメインにわたって、IDは、特定のエンティティ(例えばボーイング747)を特定し、同じクラスの他のエンティティ(例えばボーイング747)に関する情報を提供することによって、類似した問題に対処する。
我々は,AIシステムのインスタンス(例えば,Claude3との特定のチャットセッション)にIDが登録され,関連する情報が,そのシステムと対話しようとする関係者にアクセス可能なフレームワークを提案する。
AIシステムのIDを特徴付け、IDが有用である具体的な例を提供し、主要なアクターからのIDに対する大きな需要がある可能性を主張し、アクターがIDの採用を動機付ける方法を分析し、AIシステムのデプロイのためのフレームワークの実装の可能性を探り、制限とリスクを強調します。
IDは、金融取引や実際の人間との接触など、AIシステムが世界に大きな影響を与える可能性のある設定で最も保証されているように思われる。
さらなる研究により、IDはAIシステムが社会に浸透する世界を管理するのに役立つかもしれない。
関連論文リスト
- Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Towards evaluations-based safety cases for AI scheming [37.399946932069746]
本論では,安全事例がスケジューリングに有効である,という3つの論点を提案する。
第一に、フロンティアAIシステムの開発者は、AIシステムはスケジューリングができないと主張するかもしれない。
第二に、AIシステムはスケジューリングによって害を与えることができない、という主張もある。
第三に、AIシステムが意図的にそれらを覆そうと試みても、AIシステムを取り巻く制御手段が受け入れられない結果を防ぐと論じることもできる。
論文 参考訳(メタデータ) (2024-10-29T17:55:29Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - AI and Democracy's Digital Identity Crisis [0.0]
プライバシー保護のアイデンティティ証明は、偽造の事例を劇的に減らし、偽情報を識別しやすくし、潜在的に妨げる可能性がある。
本稿では, 政府, バイオメトリック, フェデレーション, 信頼に基づくWebなど, 検査のタイプについて論じる。
これらのシステムは、悪意あるアクターの手にAIが作用する民主主義に対する脅威のいくつかを防ぎ、アイデンティティを認証するための最良のアプローチだと考えています。
論文 参考訳(メタデータ) (2023-09-25T14:15:18Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Process Knowledge-Infused AI: Towards User-level Explainability,
Interpretability, and Safety [25.027558410886407]
パーソナライズされた健康や食品レコメンデーションのための自己管理のような、高価値でセンシティブな、あるいは安全に重要なアプリケーションでは、その採用はありそうにない。
AIシステムは専門家が設定したガイドラインや明確なプロセスに従う必要がある。
AIシステムのユーザは、ユーザが理解可能な説明をする必要がある。
論文 参考訳(メタデータ) (2022-06-09T14:09:37Z) - Knowledge-intensive Language Understanding for Explainable AI [9.541228711585886]
AIが主導する意思決定の仕方と、どの決定要因が含まれているかを理解することが不可欠である。
意思決定に直接関係する人間中心の説明を持つことは重要である。
人間が理解し、使用する明示的なドメイン知識を巻き込む必要がある。
論文 参考訳(メタデータ) (2021-08-02T21:12:30Z) - Biometrics: Trust, but Verify [49.9641823975828]
バイオメトリック認識は、世界中のさまざまなアプリケーションに爆発しました。
生体認証システムの様々なサブモジュールに関する多くの顕著な問題と懸念があります。
論文 参考訳(メタデータ) (2021-05-14T03:07:25Z) - Towards an Interface Description Template for AI-enabled Systems [77.34726150561087]
再利用(Reuse)は、システムアーキテクチャを既存のコンポーネントでインスタンス化しようとする、一般的なシステムアーキテクチャのアプローチである。
現在、コンポーネントが当初目的としていたものと異なるシステムで運用する可搬性を評価するために必要な情報の選択をガイドするフレームワークは存在しない。
我々は、AI対応コンポーネントの主情報をキャプチャするインターフェイス記述テンプレートの確立に向けて、現在進行中の作業について述べる。
論文 参考訳(メタデータ) (2020-07-13T20:30:26Z) - Artificial Intelligence (AI) and IT identity: Antecedents Identifying
with AI Applications [0.76146285961466]
マネージャをAIシステムに置き換えることは、労働者の成果に悪影響を及ぼす可能性がある。
労働者がAIシステムとの関係から、同じ恩恵を受けるかどうかは不明だ。
論文 参考訳(メタデータ) (2020-05-15T10:59:43Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。