Salut tout le monde, je suis un peu dans le flou sur un truc pratique. Je travaille sur un projet perso où je dois nettoyer et fusionner plusieurs fichiers de logs assez volumineux, et je me retrouve toujours avec un script Python qui fait le job mais qui est lent et un peu bricolé. J’ai entendu parler de l’ingénierie des données comme une approche plus solide pour ce genre de pipelines, mais j’avoue que je ne sais pas trop par où commencer pour rendre mon processus plus propre et efficace sans tout réécrire de zéro. Certains d’entre vous sont-ils passés par cette phase de « scripts maison » vers quelque chose de plus structuré, sans que ça devienne un projet monstre ?
|
Comment passer de scripts maison à un pipeline de données plus propre?
|
|
« Sujet précédent | Sujet suivant »
|

