Mettre à jour le champ MongoDB en utilisant la valeur d'un autre champ
en MongoDB, est-il possible de mettre à jour la valeur d'un champ en utilisant la valeur d'un autre champ? L'équivalent SQL serait quelque chose comme:
UPDATE Person SET Name = FirstName + ' ' + LastName
et le pseudo-code MongoDB serait:
db.person.update( {}, { $set : { name : firstName + ' ' + lastName } );
6 réponses
vous ne pouvez pas vous référer au document lui-même dans une mise à jour (encore). Vous devrez itérer à travers les documents et mettre à jour chaque document en utilisant une fonction. Voir cette réponse pour un exemple, ou celle-ci pour Côté Serveur eval()
.
vous devez itérer à travers. Pour votre cas particulier:
db.person.find().snapshot().forEach(
function (elem) {
db.person.update(
{
_id: elem._id
},
{
$set: {
name: elem.firstname + ' ' + elem.lastname
}
}
);
}
);
La meilleure façon de le faire est d'utiliser l'agrégation cadre de calculer notre nouveau domaine.
MongoDB 3.4
la solution la plus efficace est en MongoDB 3.4 en utilisant le $addFields
et le $out
les opérateurs de pipeline d'agrégation.
db.collection.aggregate(
[
{ "$addFields": {
"name": { "$concat": [ "$firstName", " ", "$lastName" ] }
}},
{ "$out": "collection" }
]
)
notez que ce ne met pas à jour votre collection, mais remplace plutôt les de collecte ou en créer un nouveau. également pour les opérations de mise à jour qui nécessitent " Type Moulage "vous aurez besoin de traitement côté client, et selon l'opération, vous pouvez avoir besoin d'utiliser la méthode find()
au lieu de la méthode .aggreate()
.
MongoDB 3.2 et 3.0
la façon dont nous faisons ceci est par $project
"nos documents et d'utiliser le $concat
opérateur d'agrégation de chaîne de retourner la chaîne concaténée.
nous de là, vous itérez ensuite le curseur 1519380920 "et utilisez le $set
mise à jour opérateur pour ajouter le nouveau champ à vos documents en utilisant opérations en vrac pour une efficacité maximale.
Agrégation de requête:
var cursor = db.collection.aggregate([
{ "$project": {
"name": { "$concat": [ "$firstName", " ", "$lastName" ] }
}}
])
MongoDB 3.2 ou plus récent
à partir de cela, vous devez utiliser la bulkWrite
méthode.
var requests = [];
cursor.forEach(document => {
requests.push( {
'updateOne': {
'filter': { '_id': document._id },
'update': { '$set': { 'name': document.name } }
}
});
if (requests.length === 500) {
//Execute per 500 operations and re-init
db.collection.bulkWrite(requests);
requests = [];
}
});
if(requests.length > 0) {
db.collection.bulkWrite(requests);
}
MongoDB 2.6 et 3.0
de cette version, vous devez utiliser le maintenant déprécié Bulk
API et son méthodes associées .
var bulk = db.collection.initializeUnorderedBulkOp();
var count = 0;
cursor.snapshot().forEach(function(document) {
bulk.find({ '_id': document._id }).updateOne( {
'$set': { 'name': document.name }
});
count++;
if(count%500 === 0) {
// Excecute per 500 operations and re-init
bulk.execute();
bulk = db.collection.initializeUnorderedBulkOp();
}
})
// clean up queues
if(count > 0) {
bulk.execute();
}
MongoDB 2.4
cursor["result"].forEach(function(document) {
db.collection.update(
{ "_id": document._id },
{ "$set": { "name": document.name } }
);
})
pour une base de données avec une forte activité, vous pouvez rencontrer des problèmes où vos mises à jour affectent activement les enregistrements changeants et pour cette raison je recommande d'utiliser snapshot ()
db.person.find().snapshot().forEach( function (hombre) {
hombre.name = hombre.firstName + ' ' + hombre.lastName;
db.person.save(hombre);
});
http://docs.mongodb.org/manual/reference/method/cursor.snapshot /
j'ai essayé la solution ci-dessus mais je l'ai trouvé impropre pour de grandes quantités de données. J'ai alors découvert la fonctionnalité stream:
MongoClient.connect("...", function(err, db){
var c = db.collection('yourCollection');
var s = c.find({/* your query */}).stream();
s.on('data', function(doc){
c.update({_id: doc._id}, {$set: {name : doc.firstName + ' ' + doc.lastName}}, function(err, result) { /* result == true? */} }
});
s.on('end', function(){
// stream can end before all your updates do if you have a lot
})
})
voici ce que nous avons inventé pour copier un champ à un autre pour ~150_000 enregistrements. Cela a pris environ 6 minutes, mais est encore beaucoup moins gourmand en ressources qu'il ne l'aurait été pour instancier et itérer sur le même nombre d'objets ruby.
js_query = %({
$or : [
{
'settings.mobile_notifications' : { $exists : false },
'settings.mobile_admin_notifications' : { $exists : false }
}
]
})
js_for_each = %(function(user) {
if (!user.settings.hasOwnProperty('mobile_notifications')) {
user.settings.mobile_notifications = user.settings.email_notifications;
}
if (!user.settings.hasOwnProperty('mobile_admin_notifications')) {
user.settings.mobile_admin_notifications = user.settings.email_admin_notifications;
}
db.users.save(user);
})
js = "db.users.find(#{js_query}).forEach(#{js_for_each});"
Mongoid::Sessions.default.command('$eval' => js)