mongodb数据库去重的方法
这篇文章将为大家详细讲解有关MongoDB数据库去重的方法,小编觉得挺实用的,因此分享给大家做个参考,希望大家阅读完这篇文章后可以有所收获。
10年积累的成都网站设计、做网站经验,可以快速应对客户对网站的新想法和需求。提供各种问题对应的解决方案。让选择我们的客户得到更好、更有力的网络服务。我虽然不认识你,你也不认识我。但先网站设计后付款的网站建设流程,更有常德免费网站建设让你可以放心的选择与我们合作。
MongoDB删除重复的数据,方法如下:
db.Passages.aggregate([ { $group:{_id:{content:'$content',endTime:'$endTime',startTime:'$startTime'},count:{$sum:1},dups: {$addToSet:'$_id'}} }, { $match:{count:{$gt:1}} } ]).forEach(function(it){ it.dups.shift(); db.Passages.remove({_id: {$in: it.dups}}); });
下面来解析:
1、使用aggregate聚合查询重复数据
·$group中是查询条件,根据content、endTime、startTime字段来聚合相同的数据;
·$count用来统计重复出现的次数, $match来过滤没有重复的数据;
·$addToSet将聚合的数据id放入到dups数组中方便后面使用;
2、查询结果使用forEach进行迭代id来删除数据
·shift()作用是剔除队列中第一条id,避免删掉所有的
关于mongodb数据库去重的方法就分享到这里了,希望以上内容可以对大家有一定的帮助,可以学到更多知识。如果觉得文章不错,可以把它分享出去让更多的人看到。
分享名称:mongodb数据库去重的方法
本文来源:http://azwzsj.com/article/gcdjep.html