Avec Public Cloud, SoFoot.com est paré pour le Mondial 2018

Temps de lecture estimé : 3 minute(s)

MISE A JOUR
Coup d’envoi de la coupe de monde de football 2018 et, comme en 2014, le trio So Foot, Sysadmin Badass et Public Cloud d’OVH est au rendez-vous. « On ne change pas une équipe qui gagne », l’adage bien connu du milieu sportif  s’applique aussi dans le numérique.

Première publication le 4 juillet 2014

Nicolas Capeyron a créé Sysadmin Badass en 2009. Son métier : assurer l’administration de serveurs orientés web et organiser l’architecture des infrastructures de ses clients, sites de e-commerce, liés au tourisme ou encore éditeurs de logiciel en mode SaaS. Pour SoFoot.com, l’un de ses clients, il a adopté la solution de cloud public d’OVH et nous explique pourquoi.

 

 

SO FOOT

Nicolas Capeyron : J’assure l’administration de www.sofoot.com , un site d’actualité consacré au football et hébergé chez OVH depuis de nombreuses années. L’audience du site se développe et, avec la finale de la Champions League puis la Coupe du Monde au Brésil, nos besoins dépassaient les capacités de l’infrastructure. Nous tournons aujourd’hui autour de 100 ou 150 000 visiteurs uniques par jour, un chiffre qui peut doubler voire tripler lors d’événements spéciaux comme le Mondial de football. En ce moment, nous pouvons multiplier par 20 le nombre de requêtes par seconde par rapport à la moyenne habituelle, car les Live SoFoot et les analyses de matchs sont très appréciés et commentés. La capacité à encaisser les pics de charge est donc indispensable à notre activité.

SoFoot.com peut doubler voire tripler son audience lors de rencontres sportives. Nicolas Capeyron, de Sysadmin Badass assure l'administration du site SoFoot.com.

Vous avez opté pour Public Cloud afin de faire face à ces pics de charge ?

N. C. : Jusque-là, lors des Coupes du Monde ou d’Europe, nous migrions le site sur un frontal beaucoup plus puissant, puis nous réalisions des optimisations. L’opération était ainsi simple et peu onéreuse, mais présentait certaines limites : nous ne pouvions pas garantir que la charge resterait dans les limites techniques du serveur… Le site n’était ni en haute disponibilité ni en load balancing et, faute de temps de développement disponible avant le Mondial, nous ne pouvions réaliser qu’un minimum de transformations techniques. Nous devions pourtant obtenir une infrastructure la plus souple et élastique possible pour être en mesure de faire face à des pics de fréquentation forts. J’ai donc fait le tour des offres Cloud sur le marché. J’ai découvert le cloud public d’OVH lors de l’événement World Tour de Lyon, testé le service et je me suis dit « Bingo ! ».

Comment avez-vous intégré Public Cloud à votre architecture ?

N. C. : Nous avons construit l’infrastructure de manière à conjuguer disponibilité et économies. Le service IP load balancing dispatche les requêtes sur deux serveurs dédiés dotés d’HAproxy. Ils distribuent eux-mêmes le trafic vers trois autres serveurs dédiés physiques, auxquels s’ajoutent cinq VM Public Cloud de poids différents. Nous additionnons ainsi la disponibilité des IP load balancing et du réseau OVH à la puissance de configuration de HAproxy pour adresser l’ensemble des frontaux dont nous disposons chez OVH. De cette manière, nous sommes capables de servir très rapidement l’ensemble des 60 Go de données statiques du site.

Public Cloud répond donc aux exigences de SoFoot ?

N. C. : Oui, nous en sommes très satisfaits. Les performances réseau et stockage sont impressionnantes, un point essentiel pour SoFoot. Chacun de nos serveurs frontaux peut désormais supporter le fonctionnement du site et une copie de l’ensemble des statiques. Le tout bien entendu en absorbant AUSSI la charge supplémentaire. Par ailleurs, le choix d’un standard comme OpenStack me permet d’utiliser l’outillage DevOps classique comme par exemple Vagrant ou Puppet. Bref, nous cumulons des performances excellentes, une solution cloud innovante et un rapport qualité/prix sans équivalent aujourd’hui. À niveau de service égal chez la concurrence, nous aurions eu une solution bien plus chère, ou qui nous aurait obligés à revoir la quasi-totalité du fonctionnement du site.