論文の概要: Responsibility Management through Responsibility Networks
- arxiv url: http://arxiv.org/abs/2102.07246v1
- Date: Sun, 14 Feb 2021 21:06:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-17 05:19:50.920338
- Title: Responsibility Management through Responsibility Networks
- Title(参考訳): 責任ネットワークによる責任管理
- Authors: Ruijun Chen, Jiong Qiu and Xuejiao Tang
- Abstract要約: 責任管理のため、IoR(Internet of Responsibilities)を展開しています。
iorフレームワークの構築、階層的責任管理、あらゆるレベルでの自動責任評価、効率的な責任認識を実現している。
- 参考スコア(独自算出の注目度): 1.4610038284393165
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: The safety management is critically important in the workplace.
Unfortunately, responsibility issues therein such as inefficient supervision,
poor evaluation and inadequate perception have not been properly addressed. To
this end, in this paper, we deploy the Internet of Responsibilities (IoR) for
responsibility management. Through the building of IoR framework, hierarchical
responsibility management, automated responsibility evaluation at all level and
efficient responsibility perception are achieved. The practical deployment of
IoR system showed its effective responsibility management capability in various
workplaces.
- Abstract(参考訳): 安全管理は職場において極めて重要である。
残念ながら、非効率的な監督、不十分な評価、不十分な認識などの責任問題は適切に対処されていません。
そこで本論文では,責任管理のためのインターネット責任(Internet of Responsibilities, IoR)を展開する。
iorフレームワークの構築、階層的責任管理、あらゆるレベルでの自動責任評価、効率的な責任認識を実現している。
IoRシステムの実践的展開は、様々な職場で効果的な責任管理能力を示した。
関連論文リスト
- Towards Responsible AI in Banking: Addressing Bias for Fair
Decision-Making [69.44075077934914]
責任AI(Responsible AI)は、企業文化の発展におけるバイアスに対処する重要な性質を強調している。
この論文は、バイアスを理解すること、バイアスを緩和すること、バイアスを説明することの3つの基本的な柱に基づいて構成されている。
オープンソースの原則に従って、アクセス可能なPythonパッケージとして、Bias On DemandとFairViewをリリースしました。
論文 参考訳(メタデータ) (2024-01-13T14:07:09Z) - Responsibility in Extensive Form Games [1.4104545468525629]
2つの異なる形態の責任、すなわち反現実的であり、哲学とAIで広く議論されている。
本稿では,2つのモダリティを調和させるような設定に対して,ルック・トゥ・イットの責任の定義を提案する。
これらの2つの責任形態は、それぞれの可能な状況において責任を負うのに十分なものではないが、高次の責任を考慮すると、このギャップは存在しないことを示している。
論文 参考訳(メタデータ) (2023-12-12T10:41:17Z) - The Internet of Responsibilities-Connecting Human Responsibilities using
Big Data and Blockchain [5.030698439873751]
説明責任管理のための新しい概念「責任のインターネット」を導入する。
システムは、責任を検知し、収集し、責任ノードの位置の観点からリスク領域を表す。
自動リマインダーと割り当てシステムは、人間の介入なしに厳格な責任制御を実施するために使用される。
論文 参考訳(メタデータ) (2023-12-07T22:16:31Z) - Responsible AI Research Needs Impact Statements Too [51.37368267352821]
責任ある人工知能(RAI)、倫理的AI、倫理的AIでの作業は例外ではない。
責任ある人工知能(RAI)、倫理的AI、倫理的AIでの作業は例外ではない。
論文 参考訳(メタデータ) (2023-11-20T14:02:28Z) - Accountability in Offline Reinforcement Learning: Explaining Decisions
with a Corpus of Examples [70.84093873437425]
本稿では、オフラインデータセットを決定コーパスとして利用するAOC(Accountable Offline Controller)を紹介する。
AOCはローデータシナリオで効果的に動作し、厳密なオフラインの模倣設定まで拡張でき、保存性と適応性の両方の品質を示す。
シミュレーションおよび実世界の医療シナリオにおいて、AOCのパフォーマンスを評価し、説明責任を維持しながら高いレベルのパフォーマンスでオフライン制御タスクを管理する能力を強調した。
論文 参考訳(メタデータ) (2023-10-11T17:20:32Z) - Unravelling Responsibility for AI [4.651940161506203]
本稿では「アクターAはOccurrence Oに責任を持つ」という三項の定式化を行い、Aのサブカテゴリの有効な組み合わせ、Aのサブカテゴリ、Oの責務、およびOを特定する。
これらの有効な組み合わせは、役割責任、因果責任、法的責任責任、道徳的責任の4つの感覚に分けられる。
目的は、これらの文字列が、異なるアクターが異なるアクターに責任を負う異なる方法を明確にし、明確にするための、規律にまたがる人々のための語彙を提供することである。
論文 参考訳(メタデータ) (2023-08-04T13:12:17Z) - Assurance for Autonomy -- JPL's past research, lessons learned, and
future directions [56.32768279109502]
幅広い状況の変動が、事前計画された応答を妨げている場合、自律性が必要である。
ミッション・アシュアランス(Mission Assurance)は、信頼性を提供する上で重要な貢献者であるが、何十年にもわたって宇宙飛行に輝く保証の実践は、自律性に関する経験が比較的少ない。
JPLのソフトウェア保証グループの研究者は、自律性の保証に特化した技術の開発に関与している。
論文 参考訳(メタデータ) (2023-05-16T18:24:12Z) - A Data-driven Human Responsibility Management System [11.650998188402209]
理想的な安全な職場は、スタッフが適切に組織された順序で責任を果たす場所として説明される。
職業関連の死亡・負傷は依然として増加しており、包括的安全管理が欠如しているため、ここ数十年は高い出席者数となっている。
そのため、スタッフに責任を負うよう指示されるスマート安全管理システムが緊急に必要となる。
論文 参考訳(メタデータ) (2020-12-06T06:16:51Z) - Responsible AI and Its Stakeholders [14.129366395072026]
我々は、AIを含むすべての利害関係者に対する責任(責任、責任、責任)の3つの概念について議論し、この問題における司法権と一般市民の役割を提案する。
論文 参考訳(メタデータ) (2020-04-23T19:27:19Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z) - Weakly-Supervised Reinforcement Learning for Controllable Behavior [126.04932929741538]
強化学習(Reinforcement Learning、RL)は、タスクを解決するために行動を取るための学習のための強力なフレームワークである。
多くの設定において、エージェントは、現在解決するよう求められている単一のタスクに対して、不可能なほど大きなタスク空間を放棄しなければならない。
我々は,この意味論的意味のあるタスクのサブスペースを,非意味的な「チャフ」タスクの巨大な空間から自動的に切り離すために,弱い監督を利用するフレームワークを導入する。
論文 参考訳(メタデータ) (2020-04-06T17:50:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。