MongoDB
 sql >> Base de Dados >  >> NoSQL >> MongoDB

Como ignorar erros de chave duplicada com segurança usando insert_many


Você pode lidar com isso inspecionando os erros produzidos com BulkWriteError . Este é na verdade um "objeto" que possui várias propriedades. As partes interessantes estão em details :
import pymongo
from bson.json_util import dumps
from pymongo import MongoClient
client = MongoClient()
db = client.test

collection = db.duptest

docs = [{ '_id': 1 }, { '_id': 1 },{ '_id': 2 }]


try:
  result = collection.insert_many(docs,ordered=False)

except pymongo.errors.BulkWriteError as e:
  print e.details['writeErrors']

Em uma primeira execução, isso fornecerá a lista de erros em e.details['writeErrors'] :
[
  { 
    'index': 1,
    'code': 11000, 
    'errmsg': u'E11000 duplicate key error collection: test.duptest index: _id_ dup key: { : 1 }', 
    'op': {'_id': 1}
  }
]

Em uma segunda execução, você vê três erros porque todos os itens existiam:
[
  {
    "index": 0,
    "code": 11000,
    "errmsg": "E11000 duplicate key error collection: test.duptest index: _id_ dup key: { : 1 }", 
    "op": {"_id": 1}
   }, 
   {
     "index": 1,
     "code": 11000,
     "errmsg": "E11000 duplicate key error collection: test.duptest index: _id_ dup key: { : 1 }",
     "op": {"_id": 1}
   },
   {
     "index": 2,
     "code": 11000,
     "errmsg": "E11000 duplicate key error collection: test.duptest index: _id_ dup key: { : 2 }",
     "op": {"_id": 2}
   }
]

Então tudo que você precisa fazer é filtrar a matriz para entradas com "code": 11000 e então apenas "pânico" quando algo mais está lá
panic = filter(lambda x: x['code'] != 11000, e.details['writeErrors'])

if len(panic) > 0:
  print "really panic"

Isso lhe dá um mecanismo para ignorar os erros de chave duplicada, mas é claro que presta atenção a algo que é realmente um problema.