En construisant un magasin de fonctionnalités pour gérer la croissance massive de notre plateforme d'apprentissage automatique ("ML"), nous avons appris que l'utilisation d'un mélange de différentes bases de données peut apporter des gains significatifs en termes d'efficacité et de simplicité opérationnelle.
Tag Archives : redis
Comment nous avons appliqué la mise en cache côté client pour améliorer de 70 % les performances de la boutique en ligne
Chez DoorDash, nous faisons des millions de prédictions chaque seconde pour alimenter les applications d'apprentissage automatique afin d'améliorer nos domaines de recherche, de recommandation, de logistique et de fraude, et la mise à l'échelle de ces systèmes complexes avec notre magasin de fonctionnalités est continuellement un défi.
Construire un Gigascale ML Feature Store avec Redis, Binary Serialization, String Hashing et Compression
Lorsqu'une entreprise comptant des millions de consommateurs, telle que DoorDash, construit des modèles d'apprentissage automatique, la quantité de données de caractéristiques peut atteindre des milliards d'enregistrements, dont des millions sont activement récupérés au cours de l'inférence du modèle, avec des contraintes de faible latence.
Accélérer Redis avec la compression
L'un des défis auxquels nous sommes confrontés presque tous les jours est de maintenir la latence de notre API à un faible niveau.