Bases de données avancées - BUT 3

Polycopié et outils en ligne pour pratiquer

Le polycopié du module est disponible ici.

Pour tester du code Redis en ligne voir le lien https://onecompiler.com/redis

Pour tester du code MongoDB en ligne voir le lien https://onecompiler.com/mongodb

Attention, ces interpréteurs en ligne ne vous permettent pas d'interagir avec des fichiers qui seraient déposés sur votre propre disque dur.

Compléments aux discussions proposées dans le polycopié

Mettre en place une image Alpine Linux et déployer Redis

Nous avons vu que l'image Ubuntu que je vous ai distribuée ne pouvait pas être lue avec VirtualBox installé dans les salles du CRiT. Maintenant, essayons tout de même avec le VirtualBox du CRiT, mais sur une distribution Linux « ultra légère » qui tourne complètement en mémoire RAM (pas de disque). Pour cela, veuillez télécharger, depuis votre poste du CRiT, l'image Alpine Linux (instance Virtual, x86_64) depuis https://www.alpinelinux.org/downloads/. Ensuite, demandez à VirtualBox de l'ingérer (procédure que j'ai déjà détaillée en cours), puis démarrez l'instance. Le login est root et il n'y a pas de mot de passe. Vous allez vous retrouver sous le prompt #. La suite de la configuration est la suivante :

      Lancer la commande suivante pour configurer le clavier :
      setup-keymap, choisir fr puis fr-azerty

      Lancer ensuite la commande suivante vous permettant de
      configurer votre distribution Alpine Linux : setup-alpine

      Veuillez choisir les paramètres par défaut, sauf, si vous voulez
      ajouter un utilisateur supplémentaire.

      Le gestionnaire de paquets, sous Alpine, est apk (Alpine Linux
      package keeper (manager)). Veuillez lancer les commandes
      suivantes pour installer redis, python, nano :

      apk add python3 nano redis

      Taper ensuite les deux commandes suivantes pour activer le
      gestionnaire de paquets propre à Python, qui s'appelle pip ou
      pip3. Pour cela on se place dans un environnement virtuel :

      python3 -m venv tutorial-env
      source tutorial-env/bin/activate

      Vous pouvez maintenant installer la librairie Python redis pour
      dialoguer en Python avec le serveur Redis : pip install redis

      Lancer le serveur redis : redis-server & (n'oubliez pas
      l’esperluette pour reprendre la main en ligne de commande)

      Vous pouvez maintenant tester que Redis est fonctionnel. Il faut
      éditer, avec nano, le programme suivant :

      import redis
      r = redis.Redis(host='localhost', port=6379, decode_responses=True)
      r.set('foo', 'bar')
      # True
      print(r.get('foo'))
      # bar

      Vous pouvez lancer ce programme test.py par la commande :
      python3 test.py et vous devriez obtenir l'affichage de bar.

      Attention : si vous installer Alpine Linux chez vous, il ne
      faudra jamais éteindre complètement l'instance Alpine. En effet,
      comme elle tourne en mémoire RAM, une extinction complète vous
      fera perdre toutes les installations effectuées dans
      l'instance. Il faut donc la mettre en sommeil. VitualBox sait
      faire cela sans problème. A l'IUT, pour l'instant, comme il n'y
      a pas de persistance de vos données, c'est foutu ! Il faudra
      recommencer l'installation à chaque fois !
    

Configuration réseau de l'image Alpine Linux

Si vous souhaitez développer en dehors de la VM Alpine Linux, par exemple parce que vos outils de développement préférés (éditeur, IDE...) sont en dehors de la VM Alpine Linux, il vous faut exposer le serveur Redis en dehors de la VM Alpine Linux. En effet, celui-ci est par défaut dans un sous réseau local dans la plage d'adresses 10.x.x.x alors que sur les machines du CRIT, ou chez-vous, le réseau par défaut est dans la plage 192.168.x.x. Pour que votre VM Alpine prenne automatiquement une adresse dans cette dernière plage d'adresses, le plus simple est de configurer, dans VirtualBox, le réseau de votre VM Alpine en mode pont (bridge) plutôt qu'en NAT. Ensuite, dans la VM Alpine Linux, vous relancez le système pour renouveler l'adresse IP de la VM Alpine via la commande /etc/init.d/networking restart. Dans la Figure 1 qui suit, vous pouvez observer que :

Network configuration
Figure 1 : Configuration réseau pour pouvoir interroger le serveur Redis en dehors de la VM Alpine Linux.

Cependant, il reste une manipulation à faire du côté de l'image Alpine Linux car je ne peux pas me connecter au serveur redis depuis la machine vituelle Ubuntu :

	cerin@DESKTOP-J1OM5DL:~$ !redis
	redis-cli -h 192.168.1.27
	192.168.1.27:6379> set foo bar
	(error) DENIED Redis is running in protected mode because
	protected mode is enabled and no password is set for the
	default user. In this mode connections are only accepted from
	the loopback interface. If you want to connect from external
	computers to Redis you may adopt one of the following
	solutions: 1) Just disable protected mode sending the command
	'CONFIG SET protected-mode no' from the loopback interface by
	connecting to Redis from the same host the server is running,
	however MAKE SURE Redis is not publicly accessible from
	internet if you do so. Use CONFIG REWRITE to make this change
	permanent. 2) Alternatively you can just disable the protected
	mode by editing the Redis configuration file, and setting the
	protected mode option to 'no', and then restarting the
	server. 3) If you started the server manually just for
	testing, restart it with the '--protected-mode no' option. 4)
	Setup a an authentication password for the default user. NOTE:
	You only need to do one of the above things in order for the
	server to start accepting connections from the outside.
	# Ici je suis allé exécuter la commande : CONFIG SET protected-mode no
	# dans la CLI de redis et dans l'image Alpine. Ensuite je peux reprendre
	# un test comme suit :
	192.168.1.27:6379> set foo bar
	OK
	192.168.1.27:6379>
	

Exercice sur CSV/JSON

Considérer le code my_json.py suivant, qui travaille sur le fichier csv suivant, et faites un commentaire des deux choix d'implémentation qui ont été faits afin de convertir un csv en json. Quel est l'avantage de l'une des représentations par rapport à l'autre ?

Contrairement à l'exemple précédent, vous pouvez utiliser la librairie Python Panda et en particulier les fonctions read_csv mais aussi to_json et merge, ceci afin de réaliser la dénormalisation et la sérialization en json. Lisez bien la page sur merge, qui contient aussi de l'information sur la jointure et la concaténation de tables.

Vous voyez donc qu'il y a plusieurs interfaces (librairies) que vous pouvez utiliser pour manipuler des fichiers csv. C'est à vous de mesurer quelle est l'interface qui convient le mieux à votre problème !

La jointure sur des objets JSON

Le code my_json_jointure.py est construit sur la base de l'encodage CSV vers JSON vu précédemment à travers le code my_json.py. Le code implémente la jointure de deux représentations JSON sur l'attribut implicite commun 'Prénom Nom'. Vous pouvez chercher à implémenter la jointure pour l'autre représentation JSON. Les CSV utilisés par le code sont test.csv et test1.csv.

Travailler avec les Bloom filters

Si le module des Bloom filters n'est pas disponible avec votre installation de Redis, veuillez suivre complètement l'installation qui vous est proposée sur cette page. Vous devriez ensuite pouvoir terter comme cela est fait ci-après, sans oublier de relancer le serveur comme indiqué :

      cerin@DESKTOP-J1OM5DL:~/Redis/RedisBloom$ killall redis-server
      4136:signal-handler (1700405390) Received SIGTERM scheduling shutdown...
      cerin@DESKTOP-J1OM5DL:~/Redis/RedisBloom$ 4136:M 19 Nov 2023 15:49:50.833 # User requested shutdown...
      4136:M 19 Nov 2023 15:49:50.834 * Saving the final RDB snapshot before exiting.
      4136:M 19 Nov 2023 15:49:50.842 * DB saved on disk
      4136:M 19 Nov 2023 15:49:50.842 # Redis is now ready to exit, bye bye...

      cerin@DESKTOP-J1OM5DL:~/Redis/RedisBloom$ redis-server /etc/redis/redis.conf
      4149:C 19 Nov 2023 15:50:13.194 # Fatal error, can't open config file '/etc/redis/redis.conf': Permission denied
      cerin@DESKTOP-J1OM5DL:~/Redis/RedisBloom$ sudo redis-server /etc/redis/redis.conf
      cerin@DESKTOP-J1OM5DL:~/Redis/RedisBloom$ python
      Python 3.10.12 (main, Jun 11 2023, 05:26:28) [GCC 11.4.0] on linux
      Type "help", "copyright", "credits" or "license" for more information.
      >>> import redis
      >>> r = redis.Redis()
      >>> r.bf().create("bloom", 0.01, 1000)
      True
      >>> r.bf().add("bloom", "foo")
      1
      >>>
    

En ligne de commande, le programme précédent en Python devient :

      cerin@DESKTOP-J1OM5DL:~/Redis/RedisBloom$ redis-cli bf.reserve bloom 0.01 1000
      (error) ERR item exists
      cerin@DESKTOP-J1OM5DL:~/Redis/RedisBloom$ redis-cli bf.info bloom
      1) Capacity
      2) (integer) 1000
      3) Size
      4) (integer) 1480
      5) Number of filters
      6) (integer) 1
      7) Number of items inserted
      8) (integer) 1
      9) Expansion rate
      10) (integer) 2
      cerin@DESKTOP-J1OM5DL:~/Redis/RedisBloom$ redis-cli del bloom
      (integer) 1
      cerin@DESKTOP-J1OM5DL:~/Redis/RedisBloom$ redis-cli bf.reserve bloom 0.01 1000
      OK
      cerin@DESKTOP-J1OM5DL:~/Redis/RedisBloom$ redis-cli bf.add bloom foo
      (integer) 1
      cerin@DESKTOP-J1OM5DL:~/Redis/RedisBloom$
      cerin@DESKTOP-J1OM5DL:~/Redis/RedisBloom$ redis-cli bf.exists bloom foo
      (integer) 1
      cerin@DESKTOP-J1OM5DL:~/Redis/RedisBloom$ redis-cli bf.exists bloom fooooo
      (integer) 0
      cerin@DESKTOP-J1OM5DL:~/Redis/RedisBloom$
    

Nous pouvons maintenant mettre en place un programme qui calcule le temps nécessaire pour insérer dans un bloom filter n éléments. Nous récupérons un dictionnaire de mots via la commande curl http://rali.iro.umontreal.ca/DEM//DEM-1_1.csv > DEMO.csv (le dictionnaire de mots est au format CSV et les mots sont dans la première colonne), puis nous lisons et insérons les mots dans un filtre de Bloom. Enfin nous calculons le temps nécessaire à l'exécution. Le programme est my_bloom.py. Son exécution donne, sur ma machine, le résultat suivant :

      cerin@DESKTOP-J1OM5DL:~$ python my_bloom.py
      Start to create the bloom filter over 140000 inputs
      CPU Execution time: 5.34375 seconds
      We found 15898 duplicates in the input

      Wall time (also known as clock time or wall-clock time) is simply the total time
      elapsed during the measurement. It’s the time you can measure with a stopwatch.
      It is the difference between the time at which a program finished its execution and
      the time at which the program started. It also includes waiting time for resources.

      CPU Time, on the other hand, refers to the time the CPU was busy processing
      the program’s instructions. The time spent waiting for other task to complete
      (like I/O operations) is not included in the CPU time. It does not include
      the waiting time for resources.
    

Quel est le temps d'exécution sur votre machine ? Faites varier le paramètre n et observer l'évolution du temps de calcul. Cette évolution suit-elle une loi linéaire en fonction de n ? quadratique en n ? exponentielle ?

Nous pouvons maintenant chercher à comparer les performances du type filtre de Bloom vis à vis du type ensemble (SET). Pour cela, nous reprenons le code précédent et nous remplaçons les opérations de gestion par un type filtre de Bloom par des opérations de gestion via un type ensemble (SET). Au final, le code est my_set.py. Quand on l'exécute, on obtient de meilleures performances en temps qu'avec un filtre de Bloom. À votre avis, pour quelles raisons ? :

      cerin@DESKTOP-J1OM5DL:~$ python my_set.py
      Start to create the set over 140000 inputs
      CPU Execution time: 2.59375 seconds
      We found 24836 duplicates in the input

      Wall time (also known as clock time or wall-clock time) is simply the total time
      elapsed during the measurement. It’s the time you can measure with a stopwatch.
      It is the difference between the time at which a program finished its execution and
      the time at which the program started. It also includes waiting time for resources.

      CPU Time, on the other hand, refers to the time the CPU was busy processing
      the program’s instructions. The time spent waiting for other task to complete
      (like I/O operations) is not included in the CPU time. It does not include
      the waiting time for resources.
    

HINT: il faut s'interroger sur les conditions expérimentales. La version du serveur Redis est-elle la même ? Idem pour l'ordinateur qui a exécuté le code. Idem pour la librairie Redis Python utilisée. Est-on sûr que les expériences ont été faites le même jour, sur une machine dont la charge est celle de la première expérience ? Est-ce qu'une seule exécution est suffisante ? Ne doit-on pas faire une quinzaine d'expériences et moyenner les résultats (et calculer aussi l'écart type) ?

Le mécanisme de publication/souscription avec Redis

Dans le code lecteur.py nous avons implémenté un lecteur, abonné sur le canal 'IUT'. Ce lecteur reçoit des entiers (via un programme que vous devez écrire et qui publie ces entiers) et toutes les minutes il produit la moyenne des valeurs reçues pendant la dernière minute. Nous utilisons le module schedule pour déclencher automatiquement le calcul de la moyenne toutes les minutes. Vous pouvez vous en passer en gardant la trace des secondes qui s'écoulent, et quand vous détectez qu'au moins une minute s'est écoulée (la différence entre une heure sauvegardée et l'heure courrante est plus grande qu'une minute), alors vous calculez la moyenne.

Les problèmes d'installation de MongoDB

Il y a potentiellement plusieurs problèmes pour installer et configurer une instance fonctionnelle de MongoDB.

Cas de Alpine Linux

Le dépôt pour la version la plus récente d'Alpine Linux ne contient pas MongoDB. Il faut donc remonter dans le temps pour installer une version plus ancienne que celle disponible en 2023. Pour cela veuillez suivre le lien suivant ou encore celui-là qui précisent toutes les opérations nécessaire à une installation de MongoDB. Le deuxième pointeur installe une version plus ancienne que celle obtenue avec le premier pointeur.

Dernière précision : il vous faut avoir installé une Alpine Linux pour architecture 64 bits, donc ne prenez pas une image Alpine Linux x86 mais une image x86_64. Voir plus haut le texte qui permet de configurer une instance Alpine Linux.

L'installation dans la machine virtuelle Ubuntu fournie

Avec l'image Ubuntu fournie, on ne peut pas démarrer le service MongoDB (par sudo systemctl start mongod) car l'exécutable provoque un core dump. Ceci est dû au fait que, d'une part, les versions récentes de MongoDB sont compilées avec des extensions pour accélérer les calculs des processeurs, et que d'autre part, VirtualBox, que nous utilisons, ne sait pas virtualiser ces opérations (AVX et AVX2). Par contre, il semblerait que VMware sache le faire.

Il convient de recompiler MongoDB depuis les sources et en demandant de ne pas les compiler avec les options AVX, AVX2, ou alors d'utiliser le MongoDB de version 4.4 qui, semble t'il, n'est pas compilé avec les extensions AVX. Dans ce dernier cas, il vous faut d'abord désinstaller la version de MongoDB de l'image Ubuntu fournie. Ceci se réalise par :

      Uninstall MongoDB Community Edition

      To completely remove MongoDB from a system, you must remove the
      MongoDB applications themselves, the configuration files, and
      any directories containing data and logs. The following section
      guides you through the necessary steps.

      WARNING
      This process will completely remove MongoDB, its configuration,
      and all databases. This process is not reversible, so ensure
      that all of your configuration and data is backed up before
      proceeding.

      1) Stop MongoDB.
      Stop the mongod process by issuing the following command:

      sudo service mongod stop

      2) Remove Packages.
      Remove any MongoDB packages that you had previously installed.

      sudo apt-get purge "mongodb-org*"

      3) Remove Data Directories.
      Remove MongoDB databases and log files.

      sudo rm -r /var/log/mongodb
      sudo rm -r /var/lib/mongodb
    

Pour installer MongoDB depuis les sources, vous pouvez suivre ce tutoriel. Il faut bien entendu commencer par clomer le dépôt qui est derrière le lien qui précède. Cependant, nous avons aussi besoin de désactiver la compilation avec les options AVX, AVX2.

Et là, c'est une autre paire de manche car nous ne trouvons pas beaucoup d'aide en ligne ! A la limite, vous pouvez examiner ce site mais vous allez obtenir un conteneur Docker qui ne tourne pas la dernière version de MongoDB mais la version 6.0.10 (à la date du 01/12/2023), mais sans les instructions AVX, AVX2, donc qui pourra tourner dans un environnement VirtualBox.

MongoDB installé via Docker

Vous utilisez peut être MongoDB depuis un conteneur Docker. Dans ce cas, si vous souhaitez utiliser un notebook Jupyter pour requêter MongoDB, il faut être sur que le conteneur Docker expose le service MongoDB à l'extérieur du conteneur. Sinon, vous avez déployé un MongoDB qui n'est accessible que depuis l'intérieur du conteneur.

Il convient de lancer votre container Docker comme suit :

      If you need to access the MongoDB server from another
      application running locally, you will need to expose a port
      using the -p argument.

      docker run --name mongodb -d -p 27017:27017 mongodb/mongodb-community-server:$MONGODB_VERSION

      Nota : la variable $MONGODB_VERSION doit avoir été initialisée, par exemple par :
      export MONGODB_VERSION=6.0-ubi8

      Using this method, you will be able to connect to your MongoDB
      instance on mongodb://localhost:27017
    

Pour de plus amples informations, vous pouvez suivre ces explications.

Résumé

D'après mon expérience, l'installation d'une version ancienne du serveur MongoDB dans l'image Ubuntu fournie ne fonctionne pas. L'installation dans une image Alpine Linux fonctionne bien. La recompilation des sources est trop compliquée. La virtualisation crée des problèmes. La meilleure chance pour disposer d'un serveur MongoDB semble être de l'installer au même niveau que votre système d'exploitation.

Prenons le cas de Windows. Vous pouvez installer MongoDB en suivant le lien suivant. Je vous conseille également d'installer Compass. Compass est un outil interactif (GUI = Graphical User Interface) gratuit pour interroger, optimiser et analyser vos données MongoDB. Voici maintenant un exemple d'interactions avec le serveur MongoDB Windows et depuis un script Python (librairie pymongo) :

      cerin@DESKTOP-J1OM5DL:~$ pip install pymongo
      Defaulting to user installation because normal site-packages is not writeable
      Collecting pymongo
      Downloading pymongo-4.6.1-cp310-cp310-manylinux_2_17_x86_64.manylinux2014_x86_64.whl.metadata (22 kB)
      Collecting dnspython<3.0.0,>=1.16.0 (from pymongo)
	Downloading dnspython-2.4.2-py3-none-any.whl.metadata (4.9 kB)
	Downloading pymongo-4.6.1-cp310-cp310-manylinux_2_17_x86_64.manylinux2014_x86_64.whl (677 kB)
	━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━ 677.1/677.1 kB 8.6 MB/s eta 0:00:00
	Downloading dnspython-2.4.2-py3-none-any.whl (300 kB)
	━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━━ 300.4/300.4 kB 10.6 MB/s eta 0:00:00
	Installing collected packages: dnspython, pymongo
	Successfully installed dnspython-2.4.2 pymongo-4.6.1
      cerin@DESKTOP-J1OM5DL:~$ python3
      Python 3.10.12 (main, Nov 20 2023, 15:14:05) [GCC 11.4.0] on linux
      Type "help", "copyright", "credits" or "license" for more information.
      >>> import pymongo
      >>> from pymongo import MongoClient
      >>> client = MongoClient()
      >>> db = client.test_database
      >>> db.test_database["post"]
      Collection(Database(MongoClient(host=['localhost:27017'], document_class=dict,
        tz_aware=False, connect=True), 'test_database'), 'test_database.post')
      >>> db.test_database.post
      Collection(Database(MongoClient(host=['localhost:27017'], document_class=dict,
	tz_aware=False, connect=True), 'test_database'), 'test_database.post')
      >>> db.test_database.post.insert_one({ "foo":"bar"})
      InsertOneResult(ObjectId('6574407827655e513af13396'), acknowledged=True)
      >>> db.test_database.post
      Collection(Database(MongoClient(host=['localhost:27017'], document_class=dict,
	 tz_aware=False, connect=True), 'test_database'), 'test_database.post')
      >>> db.list_collection_names()
      ['test_database.post']
      >>>
      >>> db.test_database.post.find_one()
      {'_id': ObjectId('6574407827655e513af13396'), 'foo': 'bar'}
      >>>
      >>> print(db.test_database.post.find({'_id':'6574407827655e513af13396'}))
      <pymongo.cursor.Cursor object at 0x7f1bb124fbb0>
      >>> import pprint
      >>> pprint.pprint(db.test_database.post.find({'_id':'6574407827655e513af13396'}))
      <pymongo.cursor.Cursor object at 0x7f1bb124f9a0>
      >>>
      >>> for doc in db.test_database.post.find():
      ...     print(doc)
      ...
      {'_id': ObjectId('6574407827655e513af13396'), 'foo': 'bar'}
      >>>
      >>> for doc in db.test_database.post.find():
      ...     print(type(doc['_id']))
      ...
      <class 'bson.objectid.ObjectId'>
      >>>
      >>> from bson.objectid import ObjectId
      >>> db.test_database.post.find_one({'_id':ObjectId('6574407827655e513af13396')})
      {'_id': ObjectId('6574407827655e513af13396'), 'foo': 'bar'}
      >>>
    

Veuillez noter ici que MongoDB a été installé au niveau de Windows et que nous travaillons avec Python et le module pymongo dans une machine virtuelle Ubuntu. Depuis la machine virtuelle Ubuntu je peux me connecter au serveur MongoDB. Ainsi, Ubuntu (pour la partie cliente) et Windows (pour la partie serveur) cohabitent et forment un écosystème de bases de données complet.

Premiers pas en MongoDB

Une des premières choses à faire est de s'interroger sur les types de données de MongoDB et des opérations de gestion de ces types de données. Le type de données qui est géré par MongoDB est le document. Les documents sont enregistrés eux-mêmes dans des collections, une collection contenant un nombre quelconque de documents. Les collections sont comparables aux tables, et les documents aux enregistrements des bases de données relationnelles. Contrairement aux bases de données relationnelles, les champs d'un enregistrement sont libres et peuvent être différents d'un enregistrement à un autre au sein d'une même collection. Le seul champ commun et obligatoire est le champ de clé principale ("id"). Les collections sont des descriptions « attribut="valeur" », c'est à dire sous la forme d'un dictionnaire ou objet JSON comme on veut ! Voici un exemple de document (exemple repris de la page Wikipedia) :

      {
      "_id": ObjectId("4efa8d2b7d284dad101e4bc7"),
      "Nom": "DUMOND",
      "Prénom": "Jean",
      "Âge": 43
      },

      {
      "_id": ObjectId("4efa8d2b7d284dad101e4bc8"),
      "Nom": "PELLERIN",
      "Prénom": "Franck",
      "Adresse": "1 chemin des Loges",
      "Ville": "VERSAILLES"
      },

      {
      "_id": ObjectId("4efa8d2b7d284dad101e4bc9"),
      "Nom": "KING",
      "Âge": "51",
      "Adresse": "36 quai des Orfèvres",
      "Ville": "PARIS"
      }
    

Ce document est formé de trois collections, et nous remarquons que chacune des collections peut avoir des clés de même nom, ou alors des clefs supplémentaires. De plus, un document peut contenir des références à d'autres documents, comme cela est fait à la Figure 2. Leur première utilité est d'accélérer les requêtes de vos applications.

Figure 2 : Documents avec références vers un document commun

Comme pour tout type de données, nous allons maintenant retrouver les opérations de gestion habituelles, ici déclinées pour le type de données document :

Veuillez remarquer ici que tous les types de données que vous avez étudiés ces dernières années, quelque soit le langage de programmation, avaient cette même boite à outils abstraite.

Dans MongoDB, une opération d'écriture est atomique au niveau d'un seul document, même si l'opération modifie plusieurs documents incorporés dans un seul document. Lorsqu'une seule opération d'écriture modifie plusieurs documents (par exemple db.collection.updateMany()), la modification de chaque document est atomique, mais l'opération dans son ensemble n'est pas atomique.

Les tutoriels qui vous sont proposés, dont celui-ci ou celui-ci pour travailler avec json, vous permettent de vous familiariser, en mode auto-apprentissage, avec les méthodes de gestion d'un document. Attention, il ne s'agit pas de devenir un expert car dans le temps imparti à ce module, nous n'aurons pas l'occasion d'étudier les aspects avancés de MongoDB, comme par exemple les transations, les agrégations, la sécurité, les séries temporelles et le mécanisme dit de sharding (partage). Le partage est une méthode de distribution de données sur plusieurs machines. MongoDB utilise le partitionnement pour prendre en charge les déploiements avec des ensembles de données très volumineux et des opérations à haut débit.

Jointure de représentations JSON et interactions avec MongoDB

Le code my_json_jointure_for_mongdb.py commence par lire des fichiers CSV sur disque, les converti en JSON, sauvegarde les représentations dans une collection MongoDG, puis passe la main à l'opération de jointure. Cette opération prend en paramètres les identificateurs ('_id') des deux documents d'entrée, et sauvegarde également la jointure dans la collection, en tant que nouveau document. Ici encore l'attribut de jointure est implicite.

Le programme affiche les trois documents présents dans la collection, à savoir, les deux entrées et la jointure :

      cerin@DESKTOP-J1OM5DL:~$ python3 my_json_jointure_for_mongdb.py
      <class 'pymongo.collection.Collection'> 6574a92798ce13b04c8aa7fc 6574a92798ce13b04c8aa7fd
	{'Betty T': {'Test 1': '11.00 / 16', 'Test 2': '11.00 / 18'},
	'Cam Chau N': {'Test 1': '6.00 / 16', 'Test 2': '9.00 / 18'},
	'Destin L': {'Test 1': '11.00 / 16', 'Test 2': '7.00 / 18'},
	'Guillaume C': {'Test 1': '10.00 / 16', 'Test 2': '4.00 / 18'},
	'Haytem D': {'Test 1': '12.00 / 16', 'Test 2': '7.00 / 18'},
	'Hervé P': {'Test 1': '10.00 / 16', 'Test 2': '12.00 / 18'},
	'Joseph L': {'Test 1': '11.00 / 16', 'Test 2': '11.00 / 18'},
	'Laurent H': {'Test 1': '15.00 / 16', 'Test 2': '12.00 / 18'},
	'Mouloud B': {'Test 1': '13.00 / 16', 'Test 2': '17.00 / 18'},
	'Nataliya P': {'Test 1': '10.00 / 16', 'Test 2': '9.00 / 18'},
	'Romulus L': {'Test 1': '11.00 / 16', 'Test 2': '11.00 / 18'},
	'Rosenthal Preston R': {'Test 1': '13.00 / 16', 'Test 2': '13.00 / 18'},
	'Sarra Z': {'Test 1': '11.00 / 16', 'Test 2': '6.00 / 18'},
	'Thierno D': {'Test 1': '5.00 / 16', 'Test 2': '8.00 / 18'},
	'_id': ObjectId('6574a92798ce13b04c8aa7fc')}
	{'Betty T': {'Test 11': '11.00 / 16', 'Test 22': '11.00 / 18'},
	'Cam Chau N': {'Test 11': '6.00 / 16', 'Test 22': '9.00 / 18'},
	'Destin L': {'Test 11': '11.00 / 16', 'Test 22': '7.00 / 18'},
	'Guillaume C': {'Test 11': '10.00 / 16', 'Test 22': '4.00 / 18'},
	'Haytem D': {'Test 11': '12.00 / 16', 'Test 22': '7.00 / 18'},
	'Hervé P': {'Test 11': '10.00 / 16', 'Test 22': '12.00 / 18'},
	'Joseph L': {'Test 11': '11.00 / 16', 'Test 22': '11.00 / 18'},
	'Laurent H': {'Test 11': '15.00 / 16', 'Test 22': '12.00 / 18'},
	'Mouloud B': {'Test 11': '13.00 / 16', 'Test 22': '17.00 / 18'},
	'Nataliya P': {'Test 11': '10.00 / 16', 'Test 22': '9.00 / 18'},
	'Romulus L': {'Test 11': '11.00 / 16', 'Test 22': '11.00 / 18'},
	'Rosenthal Preston R': {'Test 11': '13.00 / 16', 'Test 22': '13.00 / 18'},
	'Sarra Z': {'Test 11': '11.00 / 16', 'Test 22': '6.00 / 18'},
	'Thierno D': {'Test 11': '5.00 / 16', 'Test 22': '8.00 / 18'},
	'_id': ObjectId('6574a92798ce13b04c8aa7fd')}
	{'_id': ObjectId('6574a92798ce13b04c8aa7fe'),
	'test': {'Betty T': {'Test 1': '11.00 / 16',
	'Test 11': '11.00 / 16',
	'Test 2': '11.00 / 18',
	'Test 22': '11.00 / 18'},
	'Cam Chau N': {'Test 1': '6.00 / 16',
	'Test 11': '6.00 / 16',
	'Test 2': '9.00 / 18',
	'Test 22': '9.00 / 18'},
	'Destin L': {'Test 1': '11.00 / 16',
	'Test 11': '11.00 / 16',
	'Test 2': '7.00 / 18',
	'Test 22': '7.00 / 18'},
	'Guillaume C': {'Test 1': '10.00 / 16',
	'Test 11': '10.00 / 16',
	'Test 2': '4.00 / 18',
	'Test 22': '4.00 / 18'},
	'Haytem D': {'Test 1': '12.00 / 16',
	'Test 11': '12.00 / 16',
	'Test 2': '7.00 / 18',
	'Test 22': '7.00 / 18'},
	'Hervé P': {'Test 1': '10.00 / 16',
	'Test 11': '10.00 / 16',
	'Test 2': '12.00 / 18',
	'Test 22': '12.00 / 18'},
	'Joseph L': {'Test 1': '11.00 / 16',
	'Test 11': '11.00 / 16',
	'Test 2': '11.00 / 18',
	'Test 22': '11.00 / 18'},
	'Laurent H': {'Test 1': '15.00 / 16',
	'Test 11': '15.00 / 16',
	'Test 2': '12.00 / 18',
	'Test 22': '12.00 / 18'},
	'Mouloud B': {'Test 1': '13.00 / 16',
	'Test 11': '13.00 / 16',
	'Test 2': '17.00 / 18',
	'Test 22': '17.00 / 18'},
	'Nataliya P': {'Test 1': '10.00 / 16',
	'Test 11': '10.00 / 16',
	'Test 2': '9.00 / 18',
	'Test 22': '9.00 / 18'},
	'Romulus L': {'Test 1': '11.00 / 16',
	'Test 11': '11.00 / 16',
	'Test 2': '11.00 / 18',
	'Test 22': '11.00 / 18'},
	'Rosenthal Preston R': {'Test 1': '13.00 / 16',
	'Test 11': '13.00 / 16',
	'Test 2': '13.00 / 18',
	'Test 22': '13.00 / 18'},
	'Sarra Z': {'Test 1': '11.00 / 16',
	'Test 11': '11.00 / 16',
	'Test 2': '6.00 / 18',
	'Test 22': '6.00 / 18'},
	'Thierno D': {'Test 1': '5.00 / 16',
	'Test 11': '5.00 / 16',
	'Test 2': '8.00 / 18',
	'Test 22': '8.00 / 18'}}}
	cerin@DESKTOP-J1OM5DL:~$
    

Intersections de représentations JSON et interactions avec MongoDB

Le code my_json_intersection_for_mongdb.py implémente une opération d'intersection entre les attributs de deux fichiers CSV transformés en JSON. L'algorithme est semblable, dans ses grandes lignes, à l'algorithme vu au précédent paragraphe. C'est la façon de composer l'intersection qui change. Notez également que, comme précédemment, les représentations sont rangées puis lues depuis la base MongoDB. Examinez bien le source code, notamment la fonction intersection(mc,id1,id2), pour comprendre dans quel sens on entend l'intersection afin de produire le résultat suivant :

      cerin@DESKTOP-J1OM5DL:~$ python3 my_json_intersection_for_mongdb.py
      {'Betty T': {'Test 1': '11.00 / 16', 'Test 2': '11.00 / 18'},
      'Cam Chau N': {'Test 1': '6.00 / 16', 'Test 2': '9.00 / 18'},
      'Destin L': {'Test 1': '11.00 / 16', 'Test 2': '7.00 / 18'},
      'Guillaume C': {'Test 1': '10.00 / 16', 'Test 2': '4.00 / 18'},
      'Haytem D': {'Test 1': '12.00 / 16', 'Test 2': '7.00 / 18'},
      'Hervé P': {'Test 1': '10.00 / 16', 'Test 2': '12.00 / 18'},
      'Joseph L': {'Test 1': '11.00 / 16', 'Test 2': '11.00 / 18'},
      'Laurent H': {'Test 1': '15.00 / 16', 'Test 2': '12.00 / 18'},
      'Mouloud B': {'Test 1': '13.00 / 16', 'Test 2': '17.00 / 18'},
      'Nataliya P': {'Test 1': '10.00 / 16', 'Test 2': '9.00 / 18'},
      'Romulus L': {'Test 1': '11.00 / 16', 'Test 2': '11.00 / 18'},
      'Rosenthal Preston R': {'Test 1': '13.00 / 16', 'Test 2': '13.00 / 18'},
      'Sarra Z': {'Test 1': '11.00 / 16', 'Test 2': '6.00 / 18'},
      'Thierno D': {'Test 1': '5.00 / 16', 'Test 2': '8.00 / 18'},
      '_id': ObjectId('6575d19195de2399e7b1ac64')}
      {'Betty T': {'Test 1': '11.00 / 16',
      'Test 2': '11.00 / 18',
      'Test 3': '5.00 / 18'},
      'Cam Chau N': {'Test 1': '6.00 / 16',
      'Test 2': '9.00 / 18',
      'Test 3': '12.00 / 18'},
      'Destin L': {'Test 1': '11.00 / 16',
      'Test 2': '7.00 / 18',
      'Test 3': '8.00 / 18'},
      'Guillaume C': {'Test 1': '10.00 / 16',
      'Test 2': '4.00 / 18',
      'Test 3': '10.00 / 18'},
      'Haytem D': {'Test 1': '12.00 / 16',
      'Test 2': '7.00 / 18',
      'Test 3': '10.00 / 18'},
      'Hervé P': {'Test 1': '10.00 / 16',
      'Test 2': '12.00 / 18',
      'Test 3': '10.00 / 18'},
      'Joseph L': {'Test 1': '11.00 / 16',
      'Test 2': '11.00 / 18',
      'Test 3': '8.00 / 18'},
      'Laurent H': {'Test 1': '15.00 / 16',
      'Test 2': '12.00 / 18',
      'Test 3': '7.00 / 18'},
      'Mouloud B': {'Test 1': '13.00 / 16',
      'Test 2': '17.00 / 18',
      'Test 3': '4.00 / 18'},
      'Nataliya P': {'Test 1': '10.00 / 16',
      'Test 2': '9.00 / 18',
      'Test 3': '9.00 / 18'},
      'Romulus L': {'Test 1': '11.00 / 16',
      'Test 2': '11.00 / 18',
      'Test 3': '14.00 / 18'},
      'Rosenthal Preston R': {'Test 1': '13.00 / 16',
      'Test 2': '13.00 / 18',
      'Test 3': '11.00 / 18'},
      'Sarra Z': {'Test 1': '11.00 / 16',
      'Test 2': '6.00 / 18',
      'Test 3': '15.00 / 18'},
      'Thierno D': {'Test 1': '5.00 / 16',
      'Test 2': '8.00 / 18',
      'Test 3': '13.00 / 18'},
      '_id': ObjectId('6575d19195de2399e7b1ac65')}
      {'_id': ObjectId('6575d19195de2399e7b1ac66'),
      'test': {'Betty T': {'Test 1': '["11.00 / 16", "11.00 / 16"]',
      'Test 2': '["11.00 / 18", "11.00 / 18"]'},
      'Cam Chau N': {'Test 1': '["6.00 / 16", "6.00 / 16"]',
      'Test 2': '["9.00 / 18", "9.00 / 18"]'},
      'Destin L': {'Test 1': '["11.00 / 16", "11.00 / 16"]',
      'Test 2': '["7.00 / 18", "7.00 / 18"]'},
      'Guillaume C': {'Test 1': '["10.00 / 16", "10.00 / 16"]',
      'Test 2': '["4.00 / 18", "4.00 / 18"]'},
      'Haytem D': {'Test 1': '["12.00 / 16", "12.00 / 16"]',
      'Test 2': '["7.00 / 18", "7.00 / 18"]'},
      'Hervé P': {'Test 1': '["10.00 / 16", "10.00 / 16"]',
      'Test 2': '["12.00 / 18", "12.00 / 18"]'},
      'Joseph L': {'Test 1': '["11.00 / 16", "11.00 / 16"]',
      'Test 2': '["11.00 / 18", "11.00 / 18"]'},
      'Laurent H': {'Test 1': '["15.00 / 16", "15.00 / 16"]',
      'Test 2': '["12.00 / 18", "12.00 / 18"]'},
      'Mouloud B': {'Test 1': '["13.00 / 16", "13.00 / 16"]',
      'Test 2': '["17.00 / 18", "17.00 / 18"]'},
      'Nataliya P': {'Test 1': '["10.00 / 16", "10.00 / 16"]',
      'Test 2': '["9.00 / 18", "9.00 / 18"]'},
      'Romulus L': {'Test 1': '["11.00 / 16", "11.00 / 16"]',
      'Test 2': '["11.00 / 18", "11.00 / 18"]'},
      'Rosenthal Preston R': {'Test 1': '["13.00 / 16", "13.00 / 16"]',
      'Test 2': '["13.00 / 18", "13.00 / 18"]'},
      'Sarra Z': {'Test 1': '["11.00 / 16", "11.00 / 16"]',
      'Test 2': '["6.00 / 18", "6.00 / 18"]'},
      'Thierno D': {'Test 1': '["5.00 / 16", "5.00 / 16"]',
      'Test 2': '["8.00 / 18", "8.00 / 18"]'}}}
      cerin@DESKTOP-J1OM5DL:~$
      

Le mécanisme des indexes en MongoDB

Vue générale et exemple

Les indexes permettent une exécution efficace des requêtes dans MongoDB. Sans indexe, MongoDB doit analyser i.e. parcourir séquentiellement chaque document d'une collection pour renvoyer les résultats de la requête. Si un indexe approprié existe pour une requête, MongoDB l'utilise pour limiter le nombre de documents à consulter.

Bien que les indexes améliorent les performances des requêtes, l'ajout d'un indexe a un impact négatif sur les performances des opérations d'écriture. Pour les collections dont le ratio écriture/lecture est élevé, les indexes sont coûteux car chaque insertion doit également mettre à jour les indexes. C'est un peu ce qui nous arrive avec le code ci-après.

En effet, pour le code qui suit, nous réalisons l'insertion d'un nouveau mot à partir du moment où ce mot n'est pas déjà présent dans le dictionnaire. Il y a donc autant (modulo les mots en double) de lectures dans la collection que d'écritures. Cette opération de test et d'ajout si le mot n'est pas présent est réalisée par le codage mycol.replace_one({my_row['M']: 1},{my_row['M']:1},upsert=True,hint=[ ('M', 1) ]). Veuillez vous reporter à la documentation de replace_one() pour plus de détails, dont l'argument hint qui permet de passer explicitement en argument l'indexe.

L'exécution du programme my_index_mongo.py donne le résultat suivant sur ma machine (il faudrait détailler les conditions expérimentales afin d'expliquer plus en détail le résultat -- Le dictionnaire de mots, utilisé par le programme, est ici. Il est de taille 8.5Mo.) :

      cerin@DESKTOP-J1OM5DL:~$ python my_index_mongo.py
      Start performance eval over 14000 inputs
      CPU Execution time: 3.828125 seconds
      We found 1509 duplicates in the input

      Wall time (also known as clock time or wall-clock time) is simply the total time
      elapsed during the measurement. It’s the time you can measure with a stopwatch.
      It is the difference between the time at which a program finished its execution and
      the time at which the program started. It also includes waiting time for resources.

      CPU Time, on the other hand, refers to the time the CPU was busy processing
      the program’s instructions. The time spent waiting for other task to complete
      (like I/O operations) is not included in the CPU time. It does not include
      the waiting time for resources.
      cerin@DESKTOP-J1OM5DL:~$
    

Quelques détails

Les indexes sont des structures de données spéciales qui stockent une petite partie de l'ensemble des données de la collection sous une forme facile à parcourir. Les indexes de MongoDB utilisent la structure de données de B-arbre.

L'indexe stocke la valeur d'un champ spécifique ou d'un ensemble de champs, ordonnée selon la valeur du champ. L'ordre des entrées de l'indexe prend en charge les correspondances d'égalité et les opérations d'interrogation basées sur la plage. En outre, MongoDB peut renvoyer des résultats triés en utilisant l'ordre de l'indexe.

Restrictions

Certaines restrictions s'appliquent aux indexes, telles que la longueur des clés d'indexe ou le nombre d'indexes par collection. Pour plus de détails, vuillez vous reporter à la documentation.

Indexe par défaut

MongoDB crée un indexe unique sur le champ _id lors de la création d'une collection. L'indexe _id empêche les clients d'insérer deux documents ayant la même valeur pour le champ _id. Vous ne pouvez pas supprimer cet indexe.

Les clauses complexes

Une clause ou requête complexe en MongoDB correspond aux clauses SQL avec des group by, where.... Elles sont nécessaires pour explorer une collection et filtrer cette collection sur des attributs spécifiques. Ainsi, les documents vérifiant une certaine propriété sont isolés. Le code my_dico_mongo.py construit une collection de mots du dictionnaire, puis filtre cette collection pour repérer le nombre de définitions associé à chaque mot, et enfin fusionne les définitions de chaque mot dans une liste. C'est la notion d'agrégation qui est explorée dans ce code. Le code proposé met en oeuvre, pour certaines parties, un pipeline, c'est à dire la combinaison de plusieurs opérations afin de construire le résultat attendu. Le pipeline exprime donc la propriété permettant de filter la collection.

L'exécution du programme my_dico_mongo.py donne la trace suivante :

  cerin@DESKTOP-J1OM5DL:~$ python my_dico_mongo.py
  Start performance eval over 100 inputs
  CPU Execution time: 0.0 seconds

  Wall time (also known as clock time or wall-clock time) is simply the total time
  elapsed during the measurement. It’s the time you can measure with a stopwatch.
  It is the difference between the time at which a program finished its execution and
  the time at which the program started. It also includes waiting time for resources.

  CPU Time, on the other hand, refers to the time the CPU was busy processing
  the program’s instructions. The time spent waiting for other task to complete
  (like I/O operations) is not included in the CPU time. It does not include
  the waiting time for resources.
  ================================================
  Find all definition(s) for word "à cheval sur"
  ================================================
  {'_id': ObjectId('657ecd521dc9c5a832b6286f'), 'M': 'à cheval sur', 'SENS': '(assis)à califourchon'}
  {'_id': ObjectId('657ecd521dc9c5a832b62870'), 'M': 'à cheval sur', 'SENS': 'intransigeant sr qc'}
  {'_id': ObjectId('657ecd521dc9c5a832b62871'), 'M': 'à cheval sur', 'SENS': 'ne pas transiger sur'}
  ================================
  Number of definitions per word
  ================================
  {'_id': 'à bras ouverts', 'Total': 1}
  {'_id': 'à cent pour cent', 'Total': 1}
  {'_id': 'à bon marché', 'Total': 2}
  {'_id': 'à ce régime', 'Total': 1}
  {'_id': 'à brûle-pourpoint', 'Total': 1}
  {'_id': 'à cause que', 'Total': 1}
  {'_id': 'à boucheton', 'Total': 1}
  {'_id': 'à bras tendus', 'Total': 1}
  {'_id': 'à côté de ses pompes', 'Total': 1}
  {'_id': 'à bloc', 'Total': 1}
  {'_id': 'à coups de cuiller à pot', 'Total': 1}
  {'_id': 'à aucun moment', 'Total': 1}
  {'_id': 'à chaque instant', 'Total': 1}
  {'_id': 'à coeur ouvert', 'Total': 1}
  {'_id': 'à bas prix', 'Total': 1}
  {'_id': 'à côté de la plaque', 'Total': 1}
  {'_id': 'à bras-le-corps', 'Total': 1}
  {'_id': 'à ce jour', 'Total': 1}
  {'_id': 'à cela près', 'Total': 1}
  {'_id': 'à bon entendeur salut', 'Total': 1}
  {'_id': "à cent sous de l'heure", 'Total': 1}
  {'_id': 'à', 'Total': 1}
  {'_id': 'à ces mots', 'Total': 1}
  {'_id': 'à chaque pas', 'Total': 1}
  {'_id': 'à cette fin que', 'Total': 1}
  {'_id': 'à ciel ouvert', 'Total': 1}
  {'_id': 'à condition de', 'Total': 1}
  {'_id': 'à bout de bras', 'Total': 2}
  {'_id': 'à contre-lit', 'Total': 1}
  {'_id': 'à cheval sur', 'Total': 3}
  {'_id': 'à bout de course', 'Total': 1}
  {'_id': 'a contrario', 'Total': 1}
  {'_id': 'à claire-voie', 'Total': 1}
  {'_id': 'à côté de', 'Total': 2}
  {'_id': 'à bientôt', 'Total': 1}
  {'_id': 'à bon escient', 'Total': 1}
  {'_id': 'à bouche que veux-tu', 'Total': 1}
  {'_id': 'à compter de tant', 'Total': 1}
  {'_id': 'à bon prix', 'Total': 1}
  {'_id': 'à bras', 'Total': 1}
  {'_id': 'a', 'Total': 2}
  {'_id': 'à bout portant', 'Total': 1}
  {'_id': 'à bonne distance', 'Total': 1}
  {'_id': 'à bras raccourcis', 'Total': 1}
  {'_id': 'à ce compte-là', 'Total': 1}
  {'_id': 'à ce titre', 'Total': 1}
  {'_id': 'à cette heure', 'Total': 1}
  {'_id': 'à aucun prix', 'Total': 1}
  {'_id': 'à clin', 'Total': 1}
  {'_id': 'à coeur', 'Total': 1}
  {'_id': 'à confesse', 'Total': 1}
  {'_id': 'à contrecoeur', 'Total': 1}
  {'_id': 'à cor et à cri', 'Total': 1}
  {'_id': 'à bonne enseigne', 'Total': 1}
  {'_id': 'à contretemps', 'Total': 1}
  {'_id': 'à côté', 'Total': 1}
  {'_id': 'à bout touchant', 'Total': 1}
  {'_id': 'à bureaux fermés', 'Total': 1}
  {'_id': 'à courre', 'Total': 1}
  {'_id': 'à califourchon', 'Total': 1}
  {'_id': 'à base de', 'Total': 1}
  {'_id': 'à charge de', 'Total': 1}
  {'_id': 'à corps perdu', 'Total': 1}
  {'_id': 'à côté de ça', 'Total': 1}
  {'_id': 'à chaud', 'Total': 1}
  {'_id': 'à bâtons rompus', 'Total': 1}
  {'_id': 'à coups de', 'Total': 1}
  {'_id': 'à beaucoup près', 'Total': 1}
  {'_id': 'à ce point', 'Total': 1}
  {'_id': 'à bas', 'Total': 1}
  {'_id': 'à cet effet', 'Total': 1}
  {'_id': 'à contre-passe', 'Total': 1}
  {'_id': 'à charge de revanche', 'Total': 1}
  {'_id': 'à coup sûr', 'Total': 1}
  {'_id': 'à condition que', 'Total': 2}
  {'_id': 'à bout de souffle', 'Total': 1}
  {'_id': 'à bon droit', 'Total': 1}
  {'_id': 'à coucher dehors', 'Total': 1}
  {'_id': 'à brève échéance', 'Total': 1}
  {'_id': 'à bride abattue', 'Total': 1}
  {'_id': 'à contre-poil', 'Total': 1}
  {'_id': 'à cette date', 'Total': 1}
  {'_id': 'à charge', 'Total': 1}
  {'_id': 'à cocourant', 'Total': 1}
  {'_id': "à compte d'auteur", 'Total': 1}
  {'_id': 'à bord de', 'Total': 1}
  {'_id': 'à contre-courant', 'Total': 1}
  {'_id': 'à contresens', 'Total': 1}
  {'_id': 'à bref délai', 'Total': 1}
  {'_id': 'a capella', 'Total': 1}
  {'_id': 'à coups de hache', 'Total': 1}
  {'_id': 'à cet égard', 'Total': 1}
  {'_id': 'à contre-bord', 'Total': 1}
  ==============================
  Merging of definitions
  ==============================
  {'_id': 'à bonne distance', 'meaning': ["(se tenir)à l'écart"]}
  {'_id': 'à ce compte-là', 'meaning': ['en conclusion']}
  {'_id': 'à ce titre', 'meaning': ['pr cette raison']}
  {'_id': 'à cette heure', 'meaning': ['maintenant']}
  {'_id': 'à aucun prix', 'meaning': ['(céder)en aucun cas']}
  {'_id': 'à bonne enseigne', 'meaning': ['av solides granties']}
  {'_id': 'à clin', 'meaning': ['d type revêtement']}
  {'_id': 'à confesse', 'meaning': ['confession']}
  {'_id': 'à califourchon', 'meaning': ['(assis)jambe d chaq côt']}
  {'_id': 'à contrecoeur', 'meaning': ['à regret']}
  {'_id': 'à base de', 'meaning': ['d composant principal']}
  {'_id': 'à charge de', 'meaning': ["ds l'obligation de"]}
  {'_id': 'à contretemps', 'meaning': ['mal à propos']}
  {'_id': 'à bout touchant', 'meaning': ['(tirer)e touchant corps']}
  {'_id': 'à bureaux fermés', 'meaning': ['ss nveaux assistants']}
  {'_id': 'à cor et à cri', 'meaning': ['(crier)à grand bruit']}
  {'_id': 'à courre', 'meaning': ['(chasse)à la poursuite']}
  {'_id': 'à beaucoup près', 'meaning': ['à forte différence près']}
  {'_id': 'à ce point', 'meaning': ['à tel degré élevé']}
  {'_id': 'à bas', 'meaning': ['hostilité à N']}
  {'_id': 'à cet effet', 'meaning': ['en vue d cela']}
  {'_id': 'à contre-passe', 'meaning': ['d forme d sciage']}
  {'_id': 'à chaud', 'meaning': ['en pleine crise']}
  {'_id': 'à bâtons rompus', 'meaning': ['ss suite,d f discontinu']}
  {'_id': 'à corps perdu', 'meaning': ['en prenant ts risques']}
  {'_id': 'à coups de', 'meaning': ['en multipliant actes']}
  {'_id': 'à charge de revanche', 'meaning': ['en rendant même service']}
  {'_id': 'à coup sûr', 'meaning': ['sûrement']}
  {'_id': 'à côté de ça', 'meaning': ['p ailleurs']}
  {'_id': 'à bon droit', 'meaning': ['(réclamer)en tte justice']}
  {'_id': 'à coucher dehors', 'meaning': ['(nom)imprononçable']}
  {'_id': 'à condition que', 'meaning': ['sous réserve que', 'sous réserve que']}
  {'_id': 'à bout de souffle', 'meaning': ['(qn)ê épuisé']}
  {'_id': 'à cette date', 'meaning': ['à ce moment']}
  {'_id': 'à charge', 'meaning': ["q relève d l'auteur"]}
  {'_id': 'à cocourant', 'meaning': ['(aller)ds le même sens']}
  {'_id': 'à bride abattue', 'meaning': ['à tte vitesse d cheval']}
  {'_id': 'à brève échéance', 'meaning': ['ds peu d tps (date)']}
  {'_id': 'à contre-poil', 'meaning': ['(aller)à sens opposé']}
  {'_id': 'à contresens', 'meaning': ['(aller)en sens contrair']}
  {'_id': 'à bref délai', 'meaning': ['ds peu d tps (durée)']}
  {'_id': 'a capella', 'meaning': ['ss accompagnement']}
  {'_id': "à compte d'auteur", 'meaning': ["aux frais d l'auteur"]}
  {'_id': 'à bord de', 'meaning': ['ds véh,ds bateau']}
  {'_id': 'à contre-courant', 'meaning': ['(aller)en sens opposé']}
  {'_id': 'à coups de hache', 'meaning': ['grossièrement']}
  {'_id': 'à contre-bord', 'meaning': ["à l'opposé d autre"]}
  {'_id': 'à cet égard', 'meaning': ['sr ce point,à ce sujet']}
  {'_id': 'à ce régime', 'meaning': ['en agissant ainsi']}
  {'_id': 'à brûle-pourpoint', 'meaning': ['d faç immédiate,brutale']}
  {'_id': 'à bras ouverts', 'meaning': ['(accueilir)cordialement']}
  {'_id': 'à cent pour cent', 'meaning': ['complètement,totalement']}
  {'_id': 'à bon marché', 'meaning': ['(vente/achat)à prix bas', 'ss grds inconvénients']}
  {'_id': 'à bloc', 'meaning': ['à fond,au maximum']}
  {'_id': 'à coups de cuiller à pot', 'meaning': ['très rapidement']}
  {'_id': 'à cause que', 'meaning': ['cause,explication']}
  {'_id': 'à boucheton', 'meaning': ['façon d placer poterie']}
  {'_id': 'à bras tendus', 'meaning': ['bras écartés et tendus']}
  {'_id': 'à côté de ses pompes', 'meaning': ['(ê)fou,désorienté']}
  {'_id': 'à bas prix', 'meaning': ['(vendre)à bon marché']}
  {'_id': 'à côté de la plaque', 'meaning': ['(ê)fou,hors sujet']}
  {'_id': 'à aucun moment', 'meaning': ['jamais']}
  {'_id': 'à chaque instant', 'meaning': ['continuellement']}
  {'_id': 'à coeur ouvert', 'meaning': ['(parler)franchement']}
  {'_id': 'à bon entendeur salut', 'meaning': ['avertissement donné à']}
  {'_id': "à cent sous de l'heure", 'meaning': ['énormément']}
  {'_id': 'à', 'meaning': ['(qc)appartenir à qn,qc / à N (ê)']}
  {'_id': 'à chaque pas', 'meaning': ['à chaque instant']}
  {'_id': 'à ciel ouvert', 'meaning': ["(ê)à l'air libre"]}
  {'_id': 'à bras-le-corps', 'meaning': ['(tenir)au milieu d corp']}
  {'_id': 'à ce jour', 'meaning': ["aujourd'hui"]}
  {'_id': 'à cela près', 'meaning': ['approximation']}
  {'_id': 'à bout de bras', 'meaning': ['tenir av effort pr aide', '(tenir)qc à bras tendu']}
  {'_id': 'à ces mots', 'meaning': ['après av entend cela']}
  {'_id': 'à cheval sur', 'meaning': ['(assis)à califourchon', 'intransigeant sr qc', 'ne pas transiger sur']}
  {'_id': 'à contre-lit', 'meaning': ['(bloc,pierre)en délit']}
  {'_id': 'à condition de', 'meaning': ['moyennant qc']}
  {'_id': 'à cette fin que', 'meaning': ['dans le but de,sue']}
  {'_id': 'à claire-voie', 'meaning': ['(barrière)q p ê ouverte']}
  {'_id': 'à côté de', 'meaning': ['(aller)auprès de', 'en comparaison de']}
  {'_id': 'à bout de course', 'meaning': ['(qn)ê épuisé']}
  {'_id': 'a contrario', 'meaning': ["à l'inverse"]}
  {'_id': 'à compter de tant', 'meaning': ['à dater de,depuis tps']}
  {'_id': 'à bon prix', 'meaning': ['(acheter)bon marché']}
  {'_id': 'à bientôt', 'meaning': ['au revoir']}
  {'_id': 'à bon escient', 'meaning': ['(agir)à propos']}
  {'_id': 'à bras', 'meaning': ['(tenir)p force d bras']}
  {'_id': 'à bouche que veux-tu', 'meaning': ['(donner)à profusion']}
  {'_id': 'à côté', 'meaning': ['(ê)à proximité']}
  {'_id': 'à coeur', 'meaning': ["jusqu'au centre d aliment"]}
  {'_id': 'à bras raccourcis', 'meaning': ['d ttes forces des bras']}
  {'_id': 'a', 'meaning': ['alphabet latin', 'ouverte']}
  {'_id': 'à bout portant', 'meaning': ['(tirer)d sr très près']}
  cerin@DESKTOP-J1OM5DL:~$

Nota : L'agrégation lookup permet de réaliser des jointures, en l'occurence une left outer join. La discussion initiale sur l'agrégation lookup introduite dans MongoDB 3.2, mérite d'être lue ainsi que l'exemple sur W3schools. Vous pouvez ensuite vous demander comment implémenter en MongoDB et avec l'agrégation lookup les différentes opérations SQL de jointure comme le NATURAL JOIN, le RIGHT JOIN…

Le code join.py est un premier exemple d'agrégation. Dans le résultat d'agrégation qui suit, on remarquera l'attribut AuthorDetail qui agrège les documents de la collection Authors quand il y a une correspondance entre Author_id de Books et _id de Authors :

  cerin@DESKTOP-J1OM5DL:~$ python join.py
  Type agrégation: 
    =====  Agrégation  =====
    {'AuthorDetail': [{'_id': 1, 'name': 'william shakespeare'}],
    '_id': 1,
    'author_id': 1,
    'price': 100,
    'title': 'The Alchemist'}
    {'AuthorDetail': [{'_id': 2, 'name': 'David copperfield'}],
    '_id': 2,
    'author_id': 2,
    'price': 200,
    'title': 'Charles Dicken'}
    {'AuthorDetail': [{'_id': 1, 'name': 'william shakespeare'}],
    '_id': 3,
    'author_id': 1,
    'price': 300,
    'title': 'The Pilgrimage'}
    {'AuthorDetail': [{'_id': 3, 'name': 'Paulo coelho'}],
    '_id': 4,
    'author_id': 3,
    'price': 400,
     'title': 'Othello'}

Le code join_bis.py reprend les idées du premier exemple d'agrégation. Dans le résultat d'agrégation qui suit, on remarquera l'attribut Detail qui agrège les documents de la collection Matiere1 quand il y a une correspondance entre Prenom_nom de Matiere1 et Nom de Matiere2. On obtient ici une représentation d'un SQL FULL JOIN modulo le fait que l'information servant à la jointure apparait deux fois :

  cerin@DESKTOP-J1OM5DL:~$ python join_bis.py
  Type agrégation: 
    =====  Agrégation  =====
    {'Detail': [{'Nom': 'Hervé P',
    'T_1': '10.00 / 16',
    'T_2': '12.00 / 18',
    'T_3': '10.00 / 18',
    '_id': ObjectId('658d666cfd502db097290e91')}],
    'Prenom_nom': 'Hervé P',
    'Test_1': '10.00 / 16',
    'Test_2': '12.00 / 18',
    '_id': ObjectId('658d666cfd502db097290e83')}
    {'Detail': [{'Nom': 'Laurent H',
    'T_1': '15.00 / 16',
    'T_2': '12.00 / 18',
    'T_3': '7.00 / 18',
    '_id': ObjectId('658d666cfd502db097290e92')}],
    'Prenom_nom': 'Laurent H',
    'Test_1': '15.00 / 16',
    'Test_2': '12.00 / 18',
    '_id': ObjectId('658d666cfd502db097290e84')}
    {'Detail': [{'Nom': 'Destin L',
    'T_1': '11.00 / 16',
    'T_2': '7.00 / 18',
    'T_3': '8.00 / 18',
    '_id': ObjectId('658d666cfd502db097290e93')}],
    'Prenom_nom': 'Destin L',
    'Test_1': '11.00 / 16',
    'Test_2': '7.00 / 18',
    '_id': ObjectId('658d666cfd502db097290e85')}
    {'Detail': [{'Nom': 'Guillaume C',
    'T_1': '10.00 / 16',
    'T_2': '4.00 / 18',
    'T_3': '10.00 / 18',
    '_id': ObjectId('658d666cfd502db097290e94')}],
    'Prenom_nom': 'Guillaume C',
    'Test_1': '10.00 / 16',
    'Test_2': '4.00 / 18',
    '_id': ObjectId('658d666cfd502db097290e86')}
    {'Detail': [{'Nom': 'Haytem D',
    'T_1': '12.00 / 16',
    'T_2': '7.00 / 18',
    'T_3': '10.00 / 18',
    '_id': ObjectId('658d666cfd502db097290e95')}],
    'Prenom_nom': 'Haytem D',
    'Test_1': '12.00 / 16',
    'Test_2': '7.00 / 18',
    '_id': ObjectId('658d666cfd502db097290e87')}
    {'Detail': [{'Nom': 'Cam Chau N',
    'T_1': '6.00 / 16',
    'T_2': '9.00 / 18',
    'T_3': '12.00 / 18',
    '_id': ObjectId('658d666cfd502db097290e96')}],
    'Prenom_nom': 'Cam Chau N',
    'Test_1': '6.00 / 16',
    'Test_2': '9.00 / 18',
    '_id': ObjectId('658d666cfd502db097290e88')}
    {'Detail': [{'Nom': 'Sarra Z',
    'T_1': '11.00 / 16',
    'T_2': '6.00 / 18',
    'T_3': '15.00 / 18',
    '_id': ObjectId('658d666cfd502db097290e97')}],
    'Prenom_nom': 'Sarra Z',
    'Test_1': '11.00 / 16',
    'Test_2': '6.00 / 18',
    '_id': ObjectId('658d666cfd502db097290e89')}
    {'Detail': [{'Nom': 'Romulus L',
    'T_1': '11.00 / 16',
    'T_2': '11.00 / 18',
    'T_3': '14.00 / 18',
    '_id': ObjectId('658d666cfd502db097290e98')}],
    'Prenom_nom': 'Romulus L',
    'Test_1': '11.00 / 16',
    'Test_2': '11.00 / 18',
    '_id': ObjectId('658d666cfd502db097290e8a')}
    {'Detail': [{'Nom': 'Thierno D',
    'T_1': '5.00 / 16',
    'T_2': '8.00 / 18',
    'T_3': '13.00 / 18',
    '_id': ObjectId('658d666cfd502db097290e99')}],
    'Prenom_nom': 'Thierno D',
    'Test_1': '5.00 / 16',
    'Test_2': '8.00 / 18',
    '_id': ObjectId('658d666cfd502db097290e8b')}
    {'Detail': [{'Nom': 'Rosenthal Preston R',
    'T_1': '13.00 / 16',
    'T_2': '13.00 / 18',
    'T_3': '11.00 / 18',
    '_id': ObjectId('658d666cfd502db097290e9a')}],
    'Prenom_nom': 'Rosenthal Preston R',
    'Test_1': '13.00 / 16',
    'Test_2': '13.00 / 18',
    '_id': ObjectId('658d666cfd502db097290e8c')}
    {'Detail': [{'Nom': 'Betty T',
    'T_1': '11.00 / 16',
    'T_2': '11.00 / 18',
    'T_3': '5.00 / 18',
    '_id': ObjectId('658d666cfd502db097290e9b')}],
    'Prenom_nom': 'Betty T',
    'Test_1': '11.00 / 16',
    'Test_2': '11.00 / 18',
    '_id': ObjectId('658d666cfd502db097290e8d')}
    {'Detail': [{'Nom': 'Mouloud B',
    'T_1': '13.00 / 16',
    'T_2': '17.00 / 18',
    'T_3': '4.00 / 18',
    '_id': ObjectId('658d666cfd502db097290e9c')}],
    'Prenom_nom': 'Mouloud B',
    'Test_1': '13.00 / 16',
    'Test_2': '17.00 / 18',
    '_id': ObjectId('658d666cfd502db097290e8e')}
    {'Detail': [{'Nom': 'Joseph L',
    'T_1': '11.00 / 16',
    'T_2': '11.00 / 18',
    'T_3': '8.00 / 18',
    '_id': ObjectId('658d666cfd502db097290e9d')}],
    'Prenom_nom': 'Joseph L',
    'Test_1': '11.00 / 16',
    'Test_2': '11.00 / 18',
    '_id': ObjectId('658d666cfd502db097290e8f')}
    {'Detail': [{'Nom': 'Nataliya P',
    'T_1': '10.00 / 16',
    'T_2': '9.00 / 18',
    'T_3': '9.00 / 18',
    '_id': ObjectId('658d666cfd502db097290e9e')}],
    'Prenom_nom': 'Nataliya P',
    'Test_1': '10.00 / 16',
    'Test_2': '9.00 / 18',
     '_id': ObjectId('658d666cfd502db097290e90')}

Le code my_json_agregation_join.py est un deuxième exemple d'agrégation et ce code utilise les fichiers CSV test_join.csv et test2_join.csv. Son exécution ne donne pas le résultat escompté car il ne produit rien pour l'attribut join_sample de l'agrégation. Veuillez expliquer et corriger le code.

HINT: il ne s'agit pas d'une erreur dans la spécification de l'agrégation, mais d'une erreur de gestion de la base de donnée mydb. Le code qui fonctionne est my_json_agregation_bis_join.py.

Le code my_json_agregation_ter_join.py est un autre exemple d'agrégation et ce code utilise de nouveau les fichiers d'entrée CSV test_join.csv et test2_join.csv. Cependant, de nouvelles fonctionnalités sont utilisées :

L'exécution du programme donne le résultat suivant :

  cerin@DESKTOP-J1OM5DL:~$ python my_json_agregation_ter_join.py
  Type agrégation: 
    =====  Agrégation  =====
    ObjectId('658d9fd3673eb3561e414865')
    Nom : BETTY T
    Note 1 : 11.00 / 18
    Note 2 : 11.00 / 16
    Note 3 : 11.00 / 18
    Note 4 : 11.00 / 18
    Note 5 : 11.00 / 16
    ------------------------
    ObjectId('658d9fd3673eb3561e414861')
    Nom : SARRA Z
    Note 1 : 6.00 / 18
    Note 2 : 11.00 / 16
    Note 3 : 6.00 / 18
    Note 4 : 6.00 / 18
    Note 5 : 11.00 / 16
    ------------------------