論文の概要: 1st ICLR International Workshop on Privacy, Accountability,
Interpretability, Robustness, Reasoning on Structured Data (PAIR^2Struct)
- arxiv url: http://arxiv.org/abs/2210.03612v1
- Date: Fri, 7 Oct 2022 15:12:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 12:33:25.445245
- Title: 1st ICLR International Workshop on Privacy, Accountability,
Interpretability, Robustness, Reasoning on Structured Data (PAIR^2Struct)
- Title(参考訳): 第1回 ICLR International Workshop on Privacy, Accountability, Interpretability, Robustness, Reasoning on Structured Data (PAIR^2Struct)
- Authors: Hao Wang, Wanyu Lin, Hao He, Di Wang, Chengzhi Mao, Muhan Zhang
- Abstract要約: データプライバシ、説明可能性、解釈可能性、ロバスト性、推論は、決定クリティカルおよび/またはプライバシに敏感なアプリケーションに機械学習(ML)技術を使用する基本的な原則として認識されている。
本質的に構造化された知識を利用することで、より関連性の高い変数を特定し、使用して信頼性の高い決定を行うための、妥当なアプローチを設計することができる。
- 参考スコア(独自算出の注目度): 28.549151517783287
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent years have seen advances on principles and guidance relating to
accountable and ethical use of artificial intelligence (AI) spring up around
the globe. Specifically, Data Privacy, Accountability, Interpretability,
Robustness, and Reasoning have been broadly recognized as fundamental
principles of using machine learning (ML) technologies on decision-critical
and/or privacy-sensitive applications. On the other hand, in tremendous
real-world applications, data itself can be well represented as various
structured formalisms, such as graph-structured data (e.g., networks),
grid-structured data (e.g., images), sequential data (e.g., text), etc. By
exploiting the inherently structured knowledge, one can design plausible
approaches to identify and use more relevant variables to make reliable
decisions, thereby facilitating real-world deployments.
- Abstract(参考訳): 近年、人工知能(AI)のアカウンタブルかつ倫理的利用に関する原則や指針が世界中に出現している。
特に、データプライバシ、説明責任、解釈可能性、堅牢性、推論は、意思決定クリティカルおよび/またはプライバシに敏感なアプリケーションで機械学習(ml)技術を使用する基本的な原則として広く認識されている。
一方、膨大な現実世界のアプリケーションでは、データ自体はグラフ構造化データ(例えば、ネットワーク)、グリッド構造化データ(例えば、画像)、シーケンシャルデータ(例えば、テキスト)など、様々な構造化形式として表現することができる。
本質的に構造化された知識を利用することで、より適切な変数を特定し、使用して信頼できる意思決定を行うための、現実的なアプローチを設計できる。
関連論文リスト
- StructRAG: Boosting Knowledge Intensive Reasoning of LLMs via Inference-time Hybrid Information Structurization [94.31508613367296]
Retrieval-augmented Generation(RAG)は、大規模言語モデル(LLM)を効果的に強化する鍵となる手段である。
本稿では,手前のタスクに対して最適な構造型を識別し,元の文書をこの構造化形式に再構成し,その結果に基づいて回答を推測するStructRAGを提案する。
実験の結果、StructRAGは最先端のパフォーマンスを実現し、特に挑戦的なシナリオに優れていた。
論文 参考訳(メタデータ) (2024-10-11T13:52:44Z) - Data Science Principles for Interpretable and Explainable AI [0.7581664835990121]
解釈可能でインタラクティブな機械学習は、複雑なモデルをより透明で制御しやすいものにすることを目的としている。
本論は, この分野における文献の発達から重要な原則を合成するものである。
論文 参考訳(メタデータ) (2024-05-17T05:32:27Z) - Predictive, scalable and interpretable knowledge tracing on structured domains [6.860460230412773]
PSI-KTは、個人の認知特性と知識の前提構造の両方が学習力学にどのように影響するかを明確にモデル化する階層的生成手法である。
PSI-KTは、学習者や歴史の学習者であっても、実世界の効率的なパーソナライズの必要性を目標にしている。
論文 参考訳(メタデータ) (2024-03-19T22:19:29Z) - Pangu-Agent: A Fine-Tunable Generalist Agent with Structured Reasoning [50.47568731994238]
人工知能(AI)エージェント作成の鍵となる方法は強化学習(RL)である
本稿では,構造化推論をAIエージェントのポリシーに統合し,学習するための一般的なフレームワークモデルを提案する。
論文 参考訳(メタデータ) (2023-12-22T17:57:57Z) - Semantic Modelling of Organizational Knowledge as a Basis for Enterprise
Data Governance 4.0 -- Application to a Unified Clinical Data Model [6.302916372143144]
メタデータ駆動、アジャイル、および(半自動化された)データガバナンスを可能にする、シンプルでコスト効率のよいフレームワークを確立します。
本稿では,25年間の臨床研究データを企業規模で完全に生産的な環境で統合するために,このフレームワークの実装と利用について説明する。
論文 参考訳(メタデータ) (2023-10-20T19:36:03Z) - Distributed Machine Learning and the Semblance of Trust [66.1227776348216]
フェデレートラーニング(FL)により、データ所有者はデータを共有することなく、データガバナンスを維持し、モデルトレーニングをローカルで行うことができる。
FLと関連する技術は、しばしばプライバシー保護と表現される。
この用語が適切でない理由を説明し、プライバシの形式的定義を念頭に設計されていないプロトコルに対する過度な信頼に関連するリスクを概説する。
論文 参考訳(メタデータ) (2021-12-21T08:44:05Z) - CateCom: a practical data-centric approach to categorization of
computational models [77.34726150561087]
本稿では,物理モデルとデータ駆動型計算モデルのランドスケープを整理する取り組みについて述べる。
オブジェクト指向設計の概念を適用し、オープンソース協調フレームワークの基礎を概説する。
論文 参考訳(メタデータ) (2021-09-28T02:59:40Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - Towards Accountability for Machine Learning Datasets: Practices from
Software Engineering and Infrastructure [9.825840279544465]
機械学習を強化するデータセットは、しばしば使われ、共有され、再使用される。
本稿では、意思決定と説明責任をサポートするデータセット開発透明性のための厳格なフレームワークを紹介する。
論文 参考訳(メタデータ) (2020-10-23T01:57:42Z) - A general framework for scientifically inspired explanations in AI [76.48625630211943]
我々は、AIシステムの説明を実装可能な一般的なフレームワークの理論的基盤として、科学的説明の構造の概念をインスタンス化する。
このフレームワークは、AIシステムの"メンタルモデル"を構築するためのツールを提供することを目的としている。
論文 参考訳(メタデータ) (2020-03-02T10:32:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。