論文の概要: Aware Adoption of AI: from Potential to Reusable Value
- arxiv url: http://arxiv.org/abs/2110.11482v1
- Date: Thu, 21 Oct 2021 21:18:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-26 02:52:08.141384
- Title: Aware Adoption of AI: from Potential to Reusable Value
- Title(参考訳): AIの採用に気付く - 可能性から再利用可能な価値へ
- Authors: Mario Angelelli, Massimiliano Gervasi
- Abstract要約: AIコンテキストにおける価値の概念を扱うための多次元フレームワークを導入する。
ビッグデータは、ビッグデータの本質的な性質ではなく、価値の区別された次元(特性)を表す。
我々は、人間と人工知能の関係を調べるために、知識の状態の整合性の概念を導入する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Artificial Intelligence (AI) provides practical advantages in different
applied domains. This is changing the way decision-makers reason about complex
systems. Indeed, broader visibility on greater information (re)sources, e.g.
Big Data, is now available to intelligent agents. On the other hand, decisions
are not always based on reusable, multi-purpose, and explainable knowledge.
Therefore, it is necessary to define new models to describe and manage this new
(re)source of uncertainty.
This contribution aims to introduce a multidimensional framework to deal with
the notion of Value in the AI context. In this model, Big Data represent a
distinguished dimension (characteristic) of Value rather than an intrinsic
property of Big Data. Great attention is paid to hidden dimensions of value,
which may be linked to emerging innovation processes. The requirements to
describe the framework are provided, and an associated mathematical structure
is presented to deal with comparison, combination, and update of states of
knowledge regarding Value. We introduce a notion of consistency of a state of
knowledge to investigate the relation between Human and Artificial
intelligences; this form of uncertainty is specified in analogy with two
scenarios concerning decision-making and non-classical measurements. Finally,
we propose future investigations aiming at the inclusion of this form of
uncertainty in the assessment of impact, risks, and structural modelling.
- Abstract(参考訳): 人工知能(AI)は、異なる適用領域で実用的な利点を提供する。
これは、意思決定者が複雑なシステムについて考える方法を変えつつある。
実際、より大きな情報(再)ソース(ビッグデータなど)のより広い可視性が、インテリジェントエージェントで利用可能になった。
一方、意思決定は再利用性、多目的性、説明可能な知識に基づいているとは限らない。
したがって、この新しい(再)不確実性源を記述し、管理するために、新しいモデルを定義する必要がある。
この貢献は、AIコンテキストにおける価値の概念を扱うための多次元フレームワークの導入を目的としている。
このモデルでは、ビッグデータの本質的な性質ではなく、価値の区別された次元(特性)を表す。
イノベーションのプロセスに結びつくかもしれない、隠れた価値の次元に非常に注意が払われる。
フレームワークを記述するための要件が提供され、価値に関する知識の状態の比較、組み合わせ、更新に対処するために関連する数学的構造が提示される。
本稿では,知識状態の整合性の概念を導入し,人間と人工知能の関係を考察する。この不確実性は,意思決定と非古典的測定に関する2つのシナリオと類似して定義する。
最後に, 影響, リスク, 構造モデリングの評価に, この形態の不確実性を含めることを目的とした今後の調査を提案する。
関連論文リスト
- A Review of Bayesian Uncertainty Quantification in Deep Probabilistic Image Segmentation [0.0]
画像セグメンテーションの進歩は、ディープラーニングベースのコンピュータビジョンの広い範囲において重要な役割を果たす。
この文脈において不確かさの定量化が広く研究され、モデル無知(認識の不確実性)やデータ曖昧さ(アラート的不確実性)を表現し、不正な意思決定を防ぐことができる。
この研究は、分野の進歩を左右する不確実性の基本概念と様々なタスクへの応用について議論することで、確率的セグメンテーションの包括的概要を提供する。
論文 参考訳(メタデータ) (2024-11-25T13:26:09Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Incorporating Domain Knowledge in Deep Neural Networks for Discrete
Choice Models [0.5801044612920815]
本稿では,DCMにおけるデータ駆動型アプローチの可能性を拡張するフレームワークを提案する。
これには、必要な関係を表す擬似データサンプルと、その実現度を測定する損失関数が含まれる。
ケーススタディは、このフレームワークの個別選択分析の可能性を示している。
論文 参考訳(メタデータ) (2023-05-30T12:53:55Z) - Variational Distillation for Multi-View Learning [104.17551354374821]
我々は,多視点表現学習における2つの重要な特徴を利用するために,様々な情報ボトルネックを設計する。
厳密な理論的保証の下で,本手法は,観察とセマンティックラベルの内在的相関の把握を可能にする。
論文 参考訳(メタデータ) (2022-06-20T03:09:46Z) - Exploring the Trade-off between Plausibility, Change Intensity and
Adversarial Power in Counterfactual Explanations using Multi-objective
Optimization [73.89239820192894]
自動対物生成は、生成した対物インスタンスのいくつかの側面を考慮すべきである。
本稿では, 対実例生成のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2022-05-20T15:02:53Z) - Are Metrics Enough? Guidelines for Communicating and Visualizing
Predictive Models to Subject Matter Experts [7.768301998812552]
本稿では,コミュニケーションのギャップを理解するために,課題の専門家とデータ科学者の双方による反復的研究について述べる。
モデルの強みと弱みを伝達するための共通媒体として可視化を利用する一連のコミュニケーションガイドラインを導出する。
論文 参考訳(メタデータ) (2022-05-11T19:40:24Z) - Towards Robust and Adaptive Motion Forecasting: A Causal Representation
Perspective [72.55093886515824]
本稿では,3つの潜伏変数群からなる動的過程として,運動予測の因果的形式化を導入する。
我々は、因果グラフを近似するために、不変なメカニズムやスタイルの共創者の表現を分解するモジュラーアーキテクチャを考案する。
合成および実データを用いた実験結果から,提案した3つの成分は,学習した動き表現の頑健性と再利用性を大幅に向上することが示された。
論文 参考訳(メタデータ) (2021-11-29T18:59:09Z) - Discriminative Multimodal Learning via Conditional Priors in Generative
Models [21.166519800652047]
本研究は,モデルトレーニングにおいて,すべてのモダリティとクラスラベルが利用できる現実的なシナリオについて研究する。
このシナリオでは、変動的な下界境界は、結合表現と欠測モダリティの間の相互情報を制限する。
論文 参考訳(メタデータ) (2021-10-09T17:22:24Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z) - Uncertainty as a Form of Transparency: Measuring, Communicating, and
Using Uncertainty [66.17147341354577]
我々は,モデル予測に関連する不確実性を推定し,伝達することにより,相補的な透明性の形式を考えることについて議論する。
モデルの不公平性を緩和し、意思決定を強化し、信頼できるシステムを構築するために不確実性がどのように使われるかを説明する。
この研究は、機械学習、可視化/HCI、デザイン、意思決定、公平性にまたがる文学から引き出された学際的レビューを構成する。
論文 参考訳(メタデータ) (2020-11-15T17:26:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。