論文の概要: 1st ICLR International Workshop on Privacy, Accountability,
Interpretability, Robustness, Reasoning on Structured Data (PAIR^2Struct)
- arxiv url: http://arxiv.org/abs/2210.03612v1
- Date: Fri, 7 Oct 2022 15:12:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 12:33:25.445245
- Title: 1st ICLR International Workshop on Privacy, Accountability,
Interpretability, Robustness, Reasoning on Structured Data (PAIR^2Struct)
- Title(参考訳): 第1回 ICLR International Workshop on Privacy, Accountability, Interpretability, Robustness, Reasoning on Structured Data (PAIR^2Struct)
- Authors: Hao Wang, Wanyu Lin, Hao He, Di Wang, Chengzhi Mao, Muhan Zhang
- Abstract要約: データプライバシ、説明可能性、解釈可能性、ロバスト性、推論は、決定クリティカルおよび/またはプライバシに敏感なアプリケーションに機械学習(ML)技術を使用する基本的な原則として認識されている。
本質的に構造化された知識を利用することで、より関連性の高い変数を特定し、使用して信頼性の高い決定を行うための、妥当なアプローチを設計することができる。
- 参考スコア(独自算出の注目度): 28.549151517783287
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent years have seen advances on principles and guidance relating to
accountable and ethical use of artificial intelligence (AI) spring up around
the globe. Specifically, Data Privacy, Accountability, Interpretability,
Robustness, and Reasoning have been broadly recognized as fundamental
principles of using machine learning (ML) technologies on decision-critical
and/or privacy-sensitive applications. On the other hand, in tremendous
real-world applications, data itself can be well represented as various
structured formalisms, such as graph-structured data (e.g., networks),
grid-structured data (e.g., images), sequential data (e.g., text), etc. By
exploiting the inherently structured knowledge, one can design plausible
approaches to identify and use more relevant variables to make reliable
decisions, thereby facilitating real-world deployments.
- Abstract(参考訳): 近年、人工知能(AI)のアカウンタブルかつ倫理的利用に関する原則や指針が世界中に出現している。
特に、データプライバシ、説明責任、解釈可能性、堅牢性、推論は、意思決定クリティカルおよび/またはプライバシに敏感なアプリケーションで機械学習(ml)技術を使用する基本的な原則として広く認識されている。
一方、膨大な現実世界のアプリケーションでは、データ自体はグラフ構造化データ(例えば、ネットワーク)、グリッド構造化データ(例えば、画像)、シーケンシャルデータ(例えば、テキスト)など、様々な構造化形式として表現することができる。
本質的に構造化された知識を利用することで、より適切な変数を特定し、使用して信頼できる意思決定を行うための、現実的なアプローチを設計できる。
関連論文リスト
- FAIR Enough: How Can We Develop and Assess a FAIR-Compliant Dataset for
Large Language Models' Training? [3.2218683514739506]
我々は、FAIR原則を大規模言語モデルトレーニングプロセスに組み込む新しいフレームワークを紹介します。
このアプローチの重要な側面は、研究者や開発者が一貫してFAIRデータ原則を適用するのを支援するために設計された包括的なチェックリストである。
我々は、技術的に先進的で健全で社会的に責任のあるAIモデルを推進するための手段として、このフレームワークをコミュニティに提供します。
論文 参考訳(メタデータ) (2024-01-19T21:21:02Z) - Pangu-Agent: A Fine-Tunable Generalist Agent with Structured Reasoning [50.47568731994238]
人工知能(AI)エージェント作成の鍵となる方法は強化学習(RL)である
本稿では,構造化推論をAIエージェントのポリシーに統合し,学習するための一般的なフレームワークモデルを提案する。
論文 参考訳(メタデータ) (2023-12-22T17:57:57Z) - Semantic Modelling of Organizational Knowledge as a Basis for Enterprise
Data Governance 4.0 -- Application to a Unified Clinical Data Model [6.302916372143144]
メタデータ駆動、アジャイル、および(半自動化された)データガバナンスを可能にする、シンプルでコスト効率のよいフレームワークを確立します。
本稿では,25年間の臨床研究データを企業規模で完全に生産的な環境で統合するために,このフレームワークの実装と利用について説明する。
論文 参考訳(メタデータ) (2023-10-20T19:36:03Z) - Artificial Intelligence in Governance, Risk and Compliance: Results of a
study on potentials for the application of artificial intelligence (AI) in
governance, risk and compliance (GRC) [0.0]
GRC(Governance, Risk and Compliance)とは、ガバナンスの統合的なアプローチである。
ガバナンス機能は相互にリンクされ、互いに分離されない。
人工知能は、非構造化データセットの処理と分析にGRCで使用されている。
論文 参考訳(メタデータ) (2022-12-07T12:36:10Z) - Neuro-Symbolic Artificial Intelligence (AI) for Intent based Semantic
Communication [85.06664206117088]
6Gネットワークはデータ転送のセマンティクスと有効性(エンドユーザ)を考慮する必要がある。
観測データの背後にある因果構造を学習するための柱としてNeSy AIが提案されている。
GFlowNetは、無線システムにおいて初めて活用され、データを生成する確率構造を学ぶ。
論文 参考訳(メタデータ) (2022-05-22T07:11:57Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - CateCom: a practical data-centric approach to categorization of
computational models [77.34726150561087]
本稿では,物理モデルとデータ駆動型計算モデルのランドスケープを整理する取り組みについて述べる。
オブジェクト指向設計の概念を適用し、オープンソース協調フレームワークの基礎を概説する。
論文 参考訳(メタデータ) (2021-09-28T02:59:40Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Towards Accountability for Machine Learning Datasets: Practices from
Software Engineering and Infrastructure [9.825840279544465]
機械学習を強化するデータセットは、しばしば使われ、共有され、再使用される。
本稿では、意思決定と説明責任をサポートするデータセット開発透明性のための厳格なフレームワークを紹介する。
論文 参考訳(メタデータ) (2020-10-23T01:57:42Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。