MongoDB
 sql >> Base de Dados >  >> NoSQL >> MongoDB

$push usou muita memória e não pode se espalhar para o disco. Limite de memória:104857600 bytes


Então, depois de tanto esforço, aqui está o que eu fiz para resolver meu problema. A primeira coisa que entendi foi que eu não posso colocar os dados em um array sem limitá-los. Então eu usei $limit e $skip , antes de agrupar os dados no pipeline. (Isso também mantém a paginação da minha consulta). Mas o problema era manter a contagem total do registro, pois foi perdido devido ao limite antes do agrupamento. Então, a solução que descobri é usar $facet , que me ajuda a implementar dois pipelines no mesmo pipeline de agregação.
db.prdfam.aggregate([{
$facet: {
"counts":[
{ '$match': {} },
{ '$lookup': { from: 'pt', localField: 'pfId', foreignField: 'pfId', as: 'pt' } },
{ '$unwind': '$pt' }, { '$match': {} }, 
{ '$lookup': { from: 'prds', localField: 'pt.ptId', foreignField: 'ptId', as: 'prd' } },
{ '$unwind': '$prd' }, { '$match': {} }, 
{ '$lookup': { from: 'del', localField: 'prd.prdId', foreignField: 'prdId', as: 'delivery' } }, 
{ '$unwind': '$delivery' }, { '$match': { 'delivery.currentDelivery': { '$ne': 'OBSOLETE' }, 
'$or': [ { 'prd.prdName': { '$regex': /^.*world.*/i } },
{ 'delivery.rInfo.dataFormat': { '$regex': /^.*world.*/i } },
{ 'delivery.dType': { '$regex': /^.*world.*/i } }, 
{ 'delivery.dId': 'WORLD' }, { 'delivery.UserId': 'WORLD' } ] } }, 
{ '$group': { _id: null, count: { '$sum': 1 } } }
],
"results":[
//same lookup & match conditions as in above element 
{ '$project': { //fields to project } }, 
{ '$sort': { updatedAt: -1 } }, {$skip: 0},{ $limit : 10 },
{ '$group': { _id: null, results: { '$push': '$$ROOT' } } },
{ '$project': { results: 1 } }
]
}
}], 
{ allowDiskUse: true })

Espero que isso ajude os outros. Felicidades :)