論文の概要: Antitrust and Artificial Intelligence (AAI): Antitrust Vigilance
Lifecycle and AI Legal Reasoning Autonomy
- arxiv url: http://arxiv.org/abs/2012.13016v1
- Date: Wed, 23 Dec 2020 22:58:51 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-25 18:03:22.812687
- Title: Antitrust and Artificial Intelligence (AAI): Antitrust Vigilance
Lifecycle and AI Legal Reasoning Autonomy
- Title(参考訳): 反トラスト・人工知能(AAI):反トラスト・ビジャランス・ライフサイクルとAI法推論オートノミー
- Authors: Lance Eliot
- Abstract要約: 人工知能(AI)分野との反トラスト分野への参入への関心が高まっています。
この研究は、反トラストとAIを結び付けるシナジーに焦点を当てています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There is an increasing interest in the entwining of the field of antitrust
with the field of Artificial Intelligence (AI), frequently referred to jointly
as Antitrust and AI (AAI) in the research literature. This study focuses on the
synergies entangling antitrust and AI, doing so to extend the literature by
proffering the primary ways that these two fields intersect, consisting of: (1)
the application of antitrust to AI, and (2) the application of AI to antitrust.
To date, most of the existing research on this intermixing has concentrated on
the former, namely the application of antitrust to AI, entailing how the
marketplace will be altered by the advent of AI and the potential for adverse
antitrust behaviors arising accordingly. Opting to explore more deeply the
other side of this coin, this research closely examines the application of AI
to antitrust and establishes an antitrust vigilance lifecycle to which AI is
predicted to be substantively infused for purposes of enabling and bolstering
antitrust detection, enforcement, and post-enforcement monitoring. Furthermore,
a gradual and incremental injection of AI into antitrust vigilance is
anticipated to occur as significant advances emerge amidst the Levels of
Autonomy (LoA) for AI Legal Reasoning (AILR).
- Abstract(参考訳): 人工知能(AI)分野と反トラスト分野の融合への関心が高まっており、研究文献においてしばしば反トラストとAI(AAI)と呼ばれる。
本研究は,(1)反トラストのAIへの適用,(2)反トラストへのAIの適用,という2つの分野が交わる主要な方法を求めることによって,反トラストとAIを絡めるシナジーに焦点を当てた。
これまで、このインターミキシングに関する既存の研究のほとんどは、AIに対する反トラスト適用という前者に集中しており、AIの出現とそれに伴う悪質な反トラスト行動の可能性によって市場がどのように変化するかを示している。
このコインの反対側をより深く探究することを目的として、この研究は、反トラストに対するAIの適用を精査し、反トラスト検出、執行、強化後の監視を可能にするために、AIが実質的に注入されると予測される反トラスト警戒ライフサイクルを確立する。
さらに、AI法推論(AILR)における自律性レベル(LoA)の中で、AIの反トラスト警戒への段階的かつ漸進的な注入が発生することが期待されている。
関連論文リスト
- AI Risk Management Should Incorporate Both Safety and Security [185.68738503122114]
AIリスクマネジメントの利害関係者は、安全とセキュリティの間のニュアンス、シナジー、相互作用を意識すべきである、と私たちは主張する。
我々は、AIの安全性とAIのセキュリティの違いと相互作用を明らかにするために、統一された参照フレームワークを導入する。
論文 参考訳(メタデータ) (2024-05-29T21:00:47Z) - Particip-AI: A Democratic Surveying Framework for Anticipating Future AI Use Cases, Harms and Benefits [54.648819983899614]
汎用AIは、一般大衆がAIを使用してそのパワーを利用するための障壁を下げたようだ。
本稿では,AI利用事例とその影響を推測し,評価するためのフレームワークであるPartICIP-AIを紹介する。
論文 参考訳(メタデータ) (2024-03-21T19:12:37Z) - Responsible Artificial Intelligence: A Structured Literature Review [0.0]
EUは最近、AIへの信頼の必要性を強調するいくつかの出版物を公表した。
これは国際規制の緊急の必要性を浮き彫りにする。
本稿は、私たちの知る限り、責任あるAIの最初の統一された定義を包括的かつ包括的に紹介する。
論文 参考訳(メタデータ) (2024-03-11T17:01:13Z) - A Safe Harbor for AI Evaluation and Red Teaming [124.89885800509505]
一部の研究者は、そのような研究の実施や研究成果の公表が、アカウント停止や法的報復につながることを恐れている。
我々は、主要なAI開発者が法的、技術的に安全な港を提供することを約束することを提案します。
これらのコミットメントは、ジェネレーティブAIのリスクに取り組むための、より包括的で意図しないコミュニティ努力への必要なステップである、と私たちは信じています。
論文 参考訳(メタデータ) (2024-03-07T20:55:08Z) - Overconfident and Unconfident AI Hinder Human-AI Collaboration [5.480154202794587]
本研究は,AIに対するユーザの信頼度,AIアドバイスの採用,コラボレーション結果に及ぼすAI信頼度の影響について検討する。
信頼度調整支援の欠如は、未調整の信頼度の検出を困難にすることでこの問題を悪化させる。
我々の研究は、人間とAIのコラボレーションを強化するためのAI信頼度校正の重要性を強調した。
論文 参考訳(メタデータ) (2024-02-12T13:16:30Z) - Managing extreme AI risks amid rapid progress [171.05448842016125]
我々は、大規模社会被害、悪意のある使用、自律型AIシステムに対する人間の制御の不可逆的な喪失を含むリスクについて説明する。
このようなリスクがどのように発生し、どのように管理するかについては、合意の欠如があります。
現在のガバナンスイニシアチブには、誤用や無謀を防ぎ、自律システムにほとんど対処するメカニズムや制度が欠けている。
論文 参考訳(メタデータ) (2023-10-26T17:59:06Z) - Fairness in Agreement With European Values: An Interdisciplinary
Perspective on AI Regulation [61.77881142275982]
この学際的立場の論文は、AIにおける公平性と差別に関する様々な懸念を考察し、AI規制がそれらにどう対処するかについて議論する。
私たちはまず、法律、(AI)産業、社会技術、そして(道徳)哲学のレンズを通して、AIと公正性に注目し、様々な視点を提示します。
我々は、AI公正性の懸念の観点から、AI法の取り組みを成功に導くために、AIレギュレーションが果たす役割を特定し、提案する。
論文 参考訳(メタデータ) (2022-06-08T12:32:08Z) - Cybertrust: From Explainable to Actionable and Interpretable AI (AI2) [58.981120701284816]
Actionable and Interpretable AI (AI2)は、AIレコメンデーションにユーザの信頼度を明確に定量化し視覚化する。
これにより、AIシステムの予測を調べてテストすることで、システムの意思決定に対する信頼の基盤を確立することができる。
論文 参考訳(メタデータ) (2022-01-26T18:53:09Z) - Bridging the Gap Between Explainable AI and Uncertainty Quantification
to Enhance Trustability [0.0]
説明可能なAIと不確かさの定量化という2つの研究方向がますます重要になっているが、これまで決して組み合わせられ、共同で研究されてきたことはない。
両方の研究領域が組み合わさる可能性、なぜこの方向にさらなる研究を行うべきなのか、そしてこれがAIシステムの信頼性向上につながるのかを示します。
論文 参考訳(メタデータ) (2021-05-25T10:53:58Z) - AI and Ethics -- Operationalising Responsible AI [13.781989627894813]
AIに対する公的な信頼の構築と維持が、成功と持続可能なイノベーションの鍵であると認識されている。
この章では、倫理的AI原則の運用に関する課題について論じ、高いレベルの倫理的AI原則をカバーする統合的な見解を提示している。
論文 参考訳(メタデータ) (2021-05-19T00:55:40Z) - The Sanction of Authority: Promoting Public Trust in AI [4.729969944853141]
我々は、AIの公的な不信は、社会に浸透するAIの信頼性を保証する規制エコシステムの過小開発に由来すると論じている。
このモデルにおける外部監査可能なAIドキュメントの役割と、効果的であることを保証するために行うべき作業について、詳しく説明する。
論文 参考訳(メタデータ) (2021-01-22T22:01:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。