論文の概要: Antitrust and Artificial Intelligence (AAI): Antitrust Vigilance
Lifecycle and AI Legal Reasoning Autonomy
- arxiv url: http://arxiv.org/abs/2012.13016v1
- Date: Wed, 23 Dec 2020 22:58:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-25 18:03:22.812687
- Title: Antitrust and Artificial Intelligence (AAI): Antitrust Vigilance
Lifecycle and AI Legal Reasoning Autonomy
- Title(参考訳): 反トラスト・人工知能(AAI):反トラスト・ビジャランス・ライフサイクルとAI法推論オートノミー
- Authors: Lance Eliot
- Abstract要約: 人工知能(AI)分野との反トラスト分野への参入への関心が高まっています。
この研究は、反トラストとAIを結び付けるシナジーに焦点を当てています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There is an increasing interest in the entwining of the field of antitrust
with the field of Artificial Intelligence (AI), frequently referred to jointly
as Antitrust and AI (AAI) in the research literature. This study focuses on the
synergies entangling antitrust and AI, doing so to extend the literature by
proffering the primary ways that these two fields intersect, consisting of: (1)
the application of antitrust to AI, and (2) the application of AI to antitrust.
To date, most of the existing research on this intermixing has concentrated on
the former, namely the application of antitrust to AI, entailing how the
marketplace will be altered by the advent of AI and the potential for adverse
antitrust behaviors arising accordingly. Opting to explore more deeply the
other side of this coin, this research closely examines the application of AI
to antitrust and establishes an antitrust vigilance lifecycle to which AI is
predicted to be substantively infused for purposes of enabling and bolstering
antitrust detection, enforcement, and post-enforcement monitoring. Furthermore,
a gradual and incremental injection of AI into antitrust vigilance is
anticipated to occur as significant advances emerge amidst the Levels of
Autonomy (LoA) for AI Legal Reasoning (AILR).
- Abstract(参考訳): 人工知能(AI)分野と反トラスト分野の融合への関心が高まっており、研究文献においてしばしば反トラストとAI(AAI)と呼ばれる。
本研究は,(1)反トラストのAIへの適用,(2)反トラストへのAIの適用,という2つの分野が交わる主要な方法を求めることによって,反トラストとAIを絡めるシナジーに焦点を当てた。
これまで、このインターミキシングに関する既存の研究のほとんどは、AIに対する反トラスト適用という前者に集中しており、AIの出現とそれに伴う悪質な反トラスト行動の可能性によって市場がどのように変化するかを示している。
このコインの反対側をより深く探究することを目的として、この研究は、反トラストに対するAIの適用を精査し、反トラスト検出、執行、強化後の監視を可能にするために、AIが実質的に注入されると予測される反トラスト警戒ライフサイクルを確立する。
さらに、AI法推論(AILR)における自律性レベル(LoA)の中で、AIの反トラスト警戒への段階的かつ漸進的な注入が発生することが期待されている。
関連論文リスト
- Responsible Artificial Intelligence: A Structured Literature Review [0.0]
EUは最近、AIへの信頼の必要性を強調するいくつかの出版物を公表した。
これは国際規制の緊急の必要性を浮き彫りにする。
本稿は、私たちの知る限り、責任あるAIの最初の統一された定義を包括的かつ包括的に紹介する。
論文 参考訳(メタデータ) (2024-03-11T17:01:13Z) - A Safe Harbor for AI Evaluation and Red Teaming [124.89885800509505]
一部の研究者は、そのような研究の実施や研究成果の公表が、アカウント停止や法的報復につながることを恐れている。
我々は、主要なAI開発者が法的、技術的に安全な港を提供することを約束することを提案します。
これらのコミットメントは、ジェネレーティブAIのリスクに取り組むための、より包括的で意図しないコミュニティ努力への必要なステップである、と私たちは信じています。
論文 参考訳(メタデータ) (2024-03-07T20:55:08Z) - Overconfident and Unconfident AI Hinder Human-AI Collaboration [4.097563258332958]
本研究では、AIの過信と過信が人間の信頼、AI提案の受け入れ、コラボレーションの結果に与える影響について検討する。
我々の研究は、AI信頼度レベルとパフォーマンスフィードバックの開示が、AI信頼度の不一致の認識を促進することを明らかにした。
論文 参考訳(メタデータ) (2024-02-12T13:16:30Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Trustworthy AI: A Computational Perspective [54.80482955088197]
我々は,信頼に値するAIを実現する上で最も重要な6つの要素,(i)安全とロバスト性,(ii)非差別と公正,(iii)説明可能性,(iv)プライバシー,(v)説明可能性と監査性,(vi)環境ウェルビーイングに焦点をあてる。
各次元について、分類学に基づく最近の関連技術について概観し、実世界のシステムにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2021-07-12T14:21:46Z) - Building Bridges: Generative Artworks to Explore AI Ethics [56.058588908294446]
近年,人工知能(AI)技術が社会に与える影響の理解と緩和に重点が置かれている。
倫理的AIシステムの設計における重要な課題は、AIパイプラインには複数の利害関係者があり、それぞれがそれぞれ独自の制約と関心を持っていることだ。
このポジションペーパーは、生成的アートワークが、アクセス可能で強力な教育ツールとして機能することで、この役割を果たすことができる可能性のいくつかを概説する。
論文 参考訳(メタデータ) (2021-06-25T22:31:55Z) - Bridging the Gap Between Explainable AI and Uncertainty Quantification
to Enhance Trustability [0.0]
説明可能なAIと不確かさの定量化という2つの研究方向がますます重要になっているが、これまで決して組み合わせられ、共同で研究されてきたことはない。
両方の研究領域が組み合わさる可能性、なぜこの方向にさらなる研究を行うべきなのか、そしてこれがAIシステムの信頼性向上につながるのかを示します。
論文 参考訳(メタデータ) (2021-05-25T10:53:58Z) - AI and Ethics -- Operationalising Responsible AI [13.781989627894813]
AIに対する公的な信頼の構築と維持が、成功と持続可能なイノベーションの鍵であると認識されている。
この章では、倫理的AI原則の運用に関する課題について論じ、高いレベルの倫理的AI原則をカバーする統合的な見解を提示している。
論文 参考訳(メタデータ) (2021-05-19T00:55:40Z) - The Sanction of Authority: Promoting Public Trust in AI [4.729969944853141]
我々は、AIの公的な不信は、社会に浸透するAIの信頼性を保証する規制エコシステムの過小開発に由来すると論じている。
このモデルにおける外部監査可能なAIドキュメントの役割と、効果的であることを保証するために行うべき作業について、詳しく説明する。
論文 参考訳(メタデータ) (2021-01-22T22:01:30Z) - Toward Trustworthy AI Development: Mechanisms for Supporting Verifiable
Claims [59.64274607533249]
AI開発者は、責任を負うことのできる検証可能な主張をする必要がある。
このレポートは、さまざまな利害関係者がAIシステムに関するクレームの妥当性を改善するための様々なステップを示唆している。
我々は、この目的のための10のメカニズム、すなわち、組織、ソフトウェア、ハードウェアを分析し、それらのメカニズムの実装、探索、改善を目的とした推奨を行う。
論文 参考訳(メタデータ) (2020-04-15T17:15:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。