Semaine 1: 08/01 au 12/01
Mission :
Élaboration d'une application web qui consiste à récupérer les fiches produits présent sur un site web donnée.
Pouvoir accéder a l'historique des recherches.
Affichage l'état d'avancement de chaque recherche en cours
Sauvegardes des informations dans une base de données
Informations exportables en fichier csv et réintégrable dans une BDD.
(Utilisation de mon ordinateur personnel pour les 3 premiers jours car ma station de travail était en maintenance)
Réalisation :
Explication de la mission
Conception de la base de données
Prise en main du code fournis par l'entreprise à utiliser.
Peuplement de la BDD
Récupération du code déjà produit par le passé (en tp et ancien stage) à réutiliser
Réalisation de formulaires
Travail sur la réponse du formulaire (insertion BDD)
Recherches sur l'utilisation d'un crawler de site web
Semaine 2: 15/01 au 19/01
Réalisation :
Épuration, amélioration du code
Programmation d'une fonction annexe de crawl permettant d'effectuer l'opération sur une seule page du site a des fins de teste.
Première réalisation d'un crawl complet du site demandé (découverte que j'avais bien programmé une fin à la boucle de recherche à la fin des 2h30 de crawl)
Semaine 3: 22/01 au 26/01
Réalisation :
Épuration, amélioration du code
Point sur l'avancement du projet avec mon maître de stage (La fonction de teste d'une seul page sera finalement gardé dans le projet finale)
Début de travail sur l'exportation en fichier CSV
La deuxième partie du crawl fonctionne maintenant mais un problème d'encodage subsiste sans raison apparente.
26/01:
Semaine 4: 29/01 au 02/02
Réalisation :
Épuration, amélioration du code
-
L'exportation dans un fichier CSV est désormais 100% fonctionnel et importable dans une BDD
Semaine 5: 05/02 au 09/02
Réalisation :