Salut à tous, je me tourne vers vous parce que je suis un peu perdu sur un point. Dans mon équipe, on a récemment commencé à utiliser une nouvelle plateforme de visualisation, et je me retrouve à passer un temps fou à préparer et à nettoyer les données avant même de pouvoir créer le moindre dashboard. Je me demande si c’est normal, ou si je rate quelque chose dans ma façon de faire. Est-ce que certains d’entre vous ont aussi l’impression que la préparation des données prend une part disproportionnée par rapport à l’analyse en elle-même ? J’ai l’impression de passer plus de temps à “nourrir la machine” qu’à réellement tirer des insights.
|
Comment optimiser la préparation des données pour les dashboards?
|
|
J avoue ressentir la même chose parfois je passe plus de temps sur la préparation des données que sur l exploration des insights et ça me lasse
Peut etre qu il faudrait mesurer le coût de la préparation des données et le comparer au gain apporté par les dashboards sinon on tourne en rond
Le souci peut venir d un manque de cadrage des données et de métriques ce n est pas forcément la plateforme qui bloque mais le modèle de données
Je suis sceptique sur le fait que tout soit toujours clean dans la préparation des données et j aimerais tester des prototypes plus rapides
On peut reformuler le probleme en parlant de vitesse d apprentissage et de valeur produite plutot que de nettoyage pur le vrai sujet est l apprentissage rapide
Et si on se fixe une limite de nettoyage et qu on avance une version brute puis on itere j ai vu que les dashboards deviennent plus vivants quand on ose aller plus vite
|
|
« Sujet précédent | Sujet suivant »
|

