論文の概要: IDs for AI Systems
- arxiv url: http://arxiv.org/abs/2406.12137v1
- Date: Mon, 17 Jun 2024 22:48:11 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-19 23:28:06.645073
- Title: IDs for AI Systems
- Title(参考訳): AIシステムのためのID
- Authors: Alan Chan, Noam Kolt, Peter Wills, Usman Anwar, Christian Schroeder de Witt, Nitarshan Rajkumar, Lewis Hammond, David Krueger, Lennart Heim, Markus Anderljung,
- Abstract要約: IDは、AIシステムが社会に浸透する世界を管理するのに役立つかもしれない。
本稿では,AIシステムのテキストbfincesにIDを付加するフレームワークを提案する。
我々は、重要なアクターからのIDに対する大きな需要があるかもしれないと論じている。
- 参考スコア(独自算出の注目度): 8.810836113176723
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: AI systems are increasingly pervasive, yet information needed to decide whether and how to engage with them may not exist or be accessible. A user may not be able to verify whether a system satisfies certain safety standards. An investigator may not know whom to investigate when a system causes an incident. A platform may find it difficult to penalize repeated negative interactions with the same system. Across a number of domains, IDs address analogous problems by identifying \textit{particular} entities (e.g., a particular Boeing 747) and providing information about other entities of the same class (e.g., some or all Boeing 747s). We propose a framework in which IDs are ascribed to \textbf{instances} of AI systems (e.g., a particular chat session with Claude 3), and associated information is accessible to parties seeking to interact with that system. We characterize IDs for AI systems, argue that there could be significant demand for IDs from key actors, analyze how those actors could incentivize ID adoption, explore potential implementations of our framework, and highlight limitations and risks. IDs seem most warranted in high-stakes settings, where certain actors (e.g., those that enable AI systems to make financial transactions) could experiment with incentives for ID use. Deployers of AI systems could experiment with developing ID implementations. With further study, IDs could help to manage a world where AI systems pervade society.
- Abstract(参考訳): AIシステムはますます普及しているが、それらをどう扱うかを決めるのに必要な情報は存在せず、アクセスもできない。
ユーザーは、システムが特定の安全基準を満たすかどうかを検証できないかもしれない。
調査官は、システムがいつインシデントを発生させるか、誰が調査すべきかを知らないかもしれない。
プラットフォームは、同じシステムとの繰り返しの負の相互作用をペナルティ化するのは難しいかもしれない。
多くのドメインにおいて、IDは類似した問題に対処し、 \textit{particular}エンティティ(例えば、特定のボーイング747)を特定し、同じクラスの他のエンティティ(例えば、一部のボーイング747)に関する情報を提供する。
本稿では,AIシステムの「textbf{instances}」にIDを付加するフレームワークを提案する。
AIシステムのIDを特徴付け、主要なアクターからのIDに対する大きな需要がある可能性を主張し、それらのアクターがIDの採用を動機付ける方法を分析し、フレームワークの実装の可能性を探り、制限とリスクを強調します。
特定のアクター(例えば、AIシステムによる金融取引を可能にするアクター)が、ID使用のインセンティブを試すことができる。
AIシステムのデプロイは、ID実装の開発を試すことができる。
さらなる研究により、IDはAIシステムが社会に浸透する世界を管理するのに役立つかもしれない。
関連論文リスト
- Imagining and building wise machines: The centrality of AI metacognition [78.76893632793497]
AIシステムは知恵を欠いている。
AI研究はタスクレベルの戦略に焦点を当てているが、メタ認知はAIシステムでは未発達である。
メタ認知機能をAIシステムに統合することは、その堅牢性、説明可能性、協力性、安全性を高めるために不可欠である。
論文 参考訳(メタデータ) (2024-11-04T18:10:10Z) - Towards evaluations-based safety cases for AI scheming [37.399946932069746]
本論では,安全事例がスケジューリングに有効である,という3つの論点を提案する。
第一に、フロンティアAIシステムの開発者は、AIシステムはスケジューリングができないと主張するかもしれない。
第二に、AIシステムはスケジューリングによって害を与えることができない、という主張もある。
第三に、AIシステムが意図的にそれらを覆そうと試みても、AIシステムを取り巻く制御手段が受け入れられない結果を防ぐと論じることもできる。
論文 参考訳(メタデータ) (2024-10-29T17:55:29Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - AI and Democracy's Digital Identity Crisis [0.0]
プライバシー保護のアイデンティティ証明は、偽造の事例を劇的に減らし、偽情報を識別しやすくし、潜在的に妨げる可能性がある。
本稿では, 政府, バイオメトリック, フェデレーション, 信頼に基づくWebなど, 検査のタイプについて論じる。
これらのシステムは、悪意あるアクターの手にAIが作用する民主主義に対する脅威のいくつかを防ぎ、アイデンティティを認証するための最良のアプローチだと考えています。
論文 参考訳(メタデータ) (2023-09-25T14:15:18Z) - Seamful XAI: Operationalizing Seamful Design in Explainable AI [59.89011292395202]
AIシステムのミスは必然的であり、技術的制限と社会技術的ギャップの両方から生じる。
本稿では, 社会工学的・インフラ的ミスマッチを明らかにすることにより, シームレスな設計がAIの説明可能性を高めることを提案する。
43人のAI実践者と実際のエンドユーザでこのプロセスを探求します。
論文 参考訳(メタデータ) (2022-11-12T21:54:05Z) - Process Knowledge-Infused AI: Towards User-level Explainability,
Interpretability, and Safety [25.027558410886407]
パーソナライズされた健康や食品レコメンデーションのための自己管理のような、高価値でセンシティブな、あるいは安全に重要なアプリケーションでは、その採用はありそうにない。
AIシステムは専門家が設定したガイドラインや明確なプロセスに従う必要がある。
AIシステムのユーザは、ユーザが理解可能な説明をする必要がある。
論文 参考訳(メタデータ) (2022-06-09T14:09:37Z) - Knowledge-intensive Language Understanding for Explainable AI [9.541228711585886]
AIが主導する意思決定の仕方と、どの決定要因が含まれているかを理解することが不可欠である。
意思決定に直接関係する人間中心の説明を持つことは重要である。
人間が理解し、使用する明示的なドメイン知識を巻き込む必要がある。
論文 参考訳(メタデータ) (2021-08-02T21:12:30Z) - Biometrics: Trust, but Verify [49.9641823975828]
バイオメトリック認識は、世界中のさまざまなアプリケーションに爆発しました。
生体認証システムの様々なサブモジュールに関する多くの顕著な問題と懸念があります。
論文 参考訳(メタデータ) (2021-05-14T03:07:25Z) - Towards an Interface Description Template for AI-enabled Systems [77.34726150561087]
再利用(Reuse)は、システムアーキテクチャを既存のコンポーネントでインスタンス化しようとする、一般的なシステムアーキテクチャのアプローチである。
現在、コンポーネントが当初目的としていたものと異なるシステムで運用する可搬性を評価するために必要な情報の選択をガイドするフレームワークは存在しない。
我々は、AI対応コンポーネントの主情報をキャプチャするインターフェイス記述テンプレートの確立に向けて、現在進行中の作業について述べる。
論文 参考訳(メタデータ) (2020-07-13T20:30:26Z) - Artificial Intelligence (AI) and IT identity: Antecedents Identifying
with AI Applications [0.76146285961466]
マネージャをAIシステムに置き換えることは、労働者の成果に悪影響を及ぼす可能性がある。
労働者がAIシステムとの関係から、同じ恩恵を受けるかどうかは不明だ。
論文 参考訳(メタデータ) (2020-05-15T10:59:43Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。