論文の概要: Unlocking New York City Crime Insights using Relational Database
Embeddings
- arxiv url: http://arxiv.org/abs/2005.09617v2
- Date: Wed, 20 May 2020 14:09:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 14:32:57.897434
- Title: Unlocking New York City Crime Insights using Relational Database
Embeddings
- Title(参考訳): リレーショナルデータベースの埋め込みによるニューヨーク市犯罪監視の解錠
- Authors: Apoorva Nitsure and Rajesh Bordawekar and Jose Neves
- Abstract要約: このバージョンは、著者が提出時点でライセンスに同意する権利を持っていなかったため、arXiv管理者によって取り下げられた。
このバージョンは、著者が提出時点でライセンスに同意する権利を持っていなかったため、arXiv管理者によって取り下げられた。
- 参考スコア(独自算出の注目度): 1.5469452301122173
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This version withdrawn by arXiv administrators because the author did not
have the right to agree to our license at the time of submission.
- Abstract(参考訳): このバージョンは、著者が提出時点でライセンスに同意する権利を持っていなかったため、arXiv管理者によって取り下げられた。
関連論文リスト
- JAMDEC: Unsupervised Authorship Obfuscation using Constrained Decoding
over Small Language Models [53.83273575102087]
著者の難読化に対する教師なし推論時間アプローチを提案する。
本稿では,著者難読化のためのユーザ制御推論時間アルゴリズムであるJAMDECを紹介する。
提案手法は,GPT2-XL などの小型言語モデルに基づいて,オリジナルコンテンツをプロプライエタリな LLM の API に公開するのを防ぐ。
論文 参考訳(メタデータ) (2024-02-13T19:54:29Z) - SILO Language Models: Isolating Legal Risk In a Nonparametric Datastore [125.06066299987106]
推論中にこのリスクパフォーマンストレードオフを管理する新しい言語モデルであるSILOを提案する。
SILOは(1)オープンライセンスコーパス(OLC)上でパラメトリックLMをトレーニングすることで構築されます。
データストアへのアクセスはドメインのパフォーマンスを大幅に改善し、PileでトレーニングされたLMでパフォーマンスギャップの90%を閉じる。
論文 参考訳(メタデータ) (2023-08-08T17:58:15Z) - Estimating the Causal Effect of Early ArXiving on Paper Acceptance [56.538813945721685]
我々は,論文の審査期間(初期arXiving)前にarXivingが会議の受理に与える影響を推定する。
以上の結果から,早期のarXivingは,論文の受容に少なからぬ影響を及ぼす可能性が示唆された。
論文 参考訳(メタデータ) (2023-06-24T07:45:38Z) - Whose Text Is It Anyway? Exploring BigCode, Intellectual Property, and
Ethics [1.933681537640272]
本稿では,大規模言語モデル(LLM)の学習に用いるオープンデータセットの著作権権について検討する。
我々の論文は、オープンデータセットでトレーニングされたLCMは、どのようにして使用済みデータの著作権上の利益を回避できるのか、と問う。
論文 参考訳(メタデータ) (2023-04-06T03:09:26Z) - Foundation Models and Fair Use [96.04664748698103]
米国や他の国では、著作権のあるコンテンツは、公正な使用原理のために責任を負わずに基礎モデルを構築するために使われることがある。
本研究では,著作権コンテンツに基づく基礎モデルの開発と展開の潜在的なリスクについて調査する。
基礎モデルが公正な使用と一致し続けるのに役立つ技術的緩和について論じる。
論文 参考訳(メタデータ) (2023-03-28T03:58:40Z) - UPTON: Preventing Authorship Leakage from Public Text Release via Data
Poisoning [17.956089294338984]
トレーニングサンプルにおける著者の特徴を弱めるためにブラックボックスデータ中毒法を利用した新しいソリューションであるUPTONを提案する。
UPTONがAAモデルの精度を非現実的なレベルに下げる実験的な検証法を提案する。
UPTONは、著者の利用可能なクリーンな文章に基づいてすでに訓練されているAAモデルに有効である。
論文 参考訳(メタデータ) (2022-11-17T17:49:57Z) - Cracking Double-Blind Review: Authorship Attribution with Deep Learning [43.483063713471935]
本稿では、匿名の原稿を著者に属性付けるトランスフォーマーベースのニューラルネットワークアーキテクチャを提案する。
我々は、arXivで公開されているすべての研究論文を200万冊以上の原稿に活用する。
本手法は, 論文の最大73%を正解する, 前代未聞の著者帰属精度を実現する。
論文 参考訳(メタデータ) (2022-11-14T15:50:24Z) - Untargeted Backdoor Watermark: Towards Harmless and Stealthy Dataset
Copyright Protection [69.59980270078067]
我々は,異常なモデル行動が決定論的でない,未目標のバックドア透かし方式を探索する。
また、提案した未ターゲットのバックドア透かしをデータセットのオーナシップ検証に利用する方法について論じる。
論文 参考訳(メタデータ) (2022-09-27T12:56:56Z) - ArXiving Before Submission Helps Everyone [38.09600429721343]
我々はarXivingの論文の長所と短所を分析する。
著者以外の人がarXivを選択すべきかどうか判断する理由は何もありません。
論文 参考訳(メタデータ) (2020-10-11T22:26:44Z) - De-anonymization of authors through arXiv submissions during
double-blind review [33.15282901539867]
二重盲検審査中の論文のarXivプレプリントの公開効果について検討した。
arXivで高評価を得た論文と受入率の正の相関を示す統計的に有意な証拠が得られた。
論文 参考訳(メタデータ) (2020-07-01T01:40:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。