論文の概要: Trustworthy AI: Deciding What to Decide
- arxiv url: http://arxiv.org/abs/2311.12604v1
- Date: Tue, 21 Nov 2023 13:43:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-23 00:28:03.905941
- Title: Trustworthy AI: Deciding What to Decide
- Title(参考訳): 信頼できるAI:何を決定するかを決める
- Authors: Caesar Wu, Yuan-Fang Li, Jian Li, Jingjing Xu, Bouvry Pascal
- Abstract要約: 我々は,AIの重要なコンポーネントを含む,信頼に値するAI(TAI)の新しいフレームワークを提案する。
我々は,この枠組みを用いて,定量的および定性的な研究手法によるTAI実験を実施することを目指している。
技術分野における信用デフォルトスワップ(CDS)の戦略的投資決定を適用するための最適予測モデルを定式化する。
- 参考スコア(独自算出の注目度): 41.10597843436572
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: When engaging in strategic decision-making, we are frequently confronted with
overwhelming information and data. The situation can be further complicated
when certain pieces of evidence contradict each other or become paradoxical.
The primary challenge is how to determine which information can be trusted when
we adopt Artificial Intelligence (AI) systems for decision-making. This issue
is known as deciding what to decide or Trustworthy AI. However, the AI system
itself is often considered an opaque black box. We propose a new approach to
address this issue by introducing a novel framework of Trustworthy AI (TAI)
encompassing three crucial components of AI: representation space, loss
function, and optimizer. Each component is loosely coupled with four TAI
properties. Altogether, the framework consists of twelve TAI properties. We aim
to use this framework to conduct the TAI experiments by quantitive and
qualitative research methods to satisfy TAI properties for the decision-making
context. The framework allows us to formulate an optimal prediction model
trained by the given dataset for applying the strategic investment decision of
credit default swaps (CDS) in the technology sector. Finally, we provide our
view of the future direction of TAI research
- Abstract(参考訳): 戦略的意思決定に携わるときには、圧倒的な情報やデータに直面することが多い。
この状況は、ある証拠が互いに矛盾したり、パラドックスになったりするときにさらに複雑になる。
最大の課題は、意思決定に人工知能(AI)システムを採用する際に、どの情報を信頼できるかを決定する方法です。
この問題は、何を決めるか、あるいは信頼できるAIを決定することで知られている。
しかし、AIシステム自体は不透明なブラックボックスと見なされることが多い。
本稿では,AIの3つの重要な構成要素である表現空間,損失関数,オプティマイザを含む,信頼に値するAI(TAI)の新たなフレームワークを導入することで,この問題に対処する新たなアプローチを提案する。
各コンポーネントは4つのTAIプロパティと疎結合である。
フレームワークは12のTAIプロパティで構成されている。
我々は,この枠組みを用いて,意思決定コンテキストにおけるTAI特性を満たす定量的,定性的な研究手法によるTAI実験を実施することを目指している。
このフレームワークは、技術セクターにおけるCDS(クレジットデフォルトスワップ)の戦略的投資決定を適用するために、与えられたデータセットによってトレーニングされた最適な予測モデルを定式化することができる。
最後に,TAI研究の今後の方向性について考察する。
関連論文リスト
- Engineering Trustworthy AI: A Developer Guide for Empirical Risk Minimization [53.80919781981027]
信頼できるAIのための重要な要件は、経験的リスク最小化のコンポーネントの設計選択に変換できる。
私たちは、AIの信頼性の新たな標準を満たすAIシステムを構築するための実用的なガイダンスを提供したいと思っています。
論文 参考訳(メタデータ) (2024-10-25T07:53:32Z) - Combining AI Control Systems and Human Decision Support via Robustness and Criticality [53.10194953873209]
我々は、逆説(AE)の方法論を最先端の強化学習フレームワークに拡張する。
学習したAI制御システムは、敵のタンパリングに対する堅牢性を示す。
トレーニング/学習フレームワークでは、この技術は人間のインタラクションを通じてAIの決定と説明の両方を改善することができる。
論文 参考訳(メタデータ) (2024-07-03T15:38:57Z) - Trust, Accountability, and Autonomy in Knowledge Graph-based AI for
Self-determination [1.4305544869388402]
知識グラフ(KG)は、インテリジェントな意思決定を支えるための基盤として登場した。
KGと神経学習の統合は、現在活発な研究のトピックである。
本稿では,KGベースのAIによる自己決定を支援するための基礎的なトピックと研究の柱を概念化する。
論文 参考訳(メタデータ) (2023-10-30T12:51:52Z) - Survey of Trustworthy AI: A Meta Decision of AI [0.41292255339309647]
不透明なシステムを信頼するには、信頼に値するAI(TAI)のレベルを決定する必要がある。
説明可能性/透明性、公平性/多様性、一般化可能性、プライバシ、データガバナンス、安全性/ロバスト性、説明責任、信頼性、持続可能性。
論文 参考訳(メタデータ) (2023-06-01T06:25:01Z) - On solving decision and risk management problems subject to uncertainty [91.3755431537592]
不確実性は意思決定とリスク管理において広範囲にわたる課題である。
本稿では,このような戦略を体系的に理解し,その適用範囲を判断し,それらをうまく活用するための枠組みを開発する。
論文 参考訳(メタデータ) (2023-01-18T19:16:23Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - The human-AI relationship in decision-making: AI explanation to support
people on justifying their decisions [4.169915659794568]
人々は、AIがどのように機能するか、そしてそのシステムとの関係を構築するために、その成果をもっと意識する必要があります。
意思決定のシナリオでは、人々はAIがどのように機能するか、そしてそのシステムとの関係を構築する結果についてもっと意識する必要があります。
論文 参考訳(メタデータ) (2021-02-10T14:28:34Z) - Explainable AI and Adoption of Algorithmic Advisors: an Experimental
Study [0.6875312133832077]
参加者は,人間あるいはアルゴリズムのアドバイザリからアドバイスを受けながら,webベースのゲームをプレイする実験手法を開発した。
異なる種類の説明が採用準備、支払い意欲、および金融AIコンサルタントの信頼に影響を与えるかどうかを評価します。
初対面時の導入を促進する説明の種類は,失敗後の最も成功したものや,コストのかかるものとは異なることが分かりました。
論文 参考訳(メタデータ) (2021-01-05T09:34:38Z) - Effect of Confidence and Explanation on Accuracy and Trust Calibration
in AI-Assisted Decision Making [53.62514158534574]
ケース固有のモデル情報を明らかにする特徴が、信頼度を調整し、人間とAIのジョイントパフォーマンスを向上させることができるかどうかを検討する。
信頼スコアは、AIモデルに対する人々の信頼を校正するのに役立ちますが、信頼の校正だけでは、AI支援による意思決定を改善するには不十分です。
論文 参考訳(メタデータ) (2020-01-07T15:33:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。