Comment passer de scripts maison à un pipeline de données plus propre?
#1
Salut tout le monde, je suis un peu dans le flou sur un truc pratique. Je travaille sur un projet perso où je dois nettoyer et fusionner plusieurs fichiers de logs assez volumineux, et je me retrouve toujours avec un script Python qui fait le job mais qui est lent et un peu bricolé. J’ai entendu parler de l’ingénierie des données comme une approche plus solide pour ce genre de pipelines, mais j’avoue que je ne sais pas trop par où commencer pour rendre mon processus plus propre et efficace sans tout réécrire de zéro. Certains d’entre vous sont-ils passés par cette phase de « scripts maison » vers quelque chose de plus structuré, sans que ça devienne un projet monstre ?
Répondre


[-]
Réponse rapide
Message
Saisissez votre réponse à ce message ici.

Code de confirmation
Veuillez saisir le texte figurant dans l’image ci-dessous. Ce procédé permet de bloquer les robots.
Code de confirmation
(insensible à la casse)

Aller au forum