Accédez au profil complet de Craig E.
Créez un compte en 2 minutes et accédez au profil complet de nos 326 372 prestataires.
Expert développeur et DBA depuis plus de 20 ans auprès d'entreprises françaises et américaines, je suis rigoureux, réactif et disponible.
Expertise BDD : SQL Server // MySQL // PostgreSQL
Dév web : AWS, PHP, PYTHON, ORACLE
GIT, ANSIBLE, DOCKER ET
KUBERNETES FRAMEWORKS
RUBY ON RAILS, DJANGO ETLARAVEL
CLOUD COMPUTING : AMAZON
WEB SERVICES (AWS)
MICROSOFT AZURE ET GOOGLE
CLOUD PLATFORM (GCP)
• Des solutions HA et Cloud :
- Récupération après désastre (RTO/RPO).
- Répartition de la charge sur des instances read-only.
- Archivage des sauvegardes / données anciennes sur le Cloud.
• Architecture Cloud & Système :
- Développement de l'hébergement Cloud, conseils en sécurité.
- Concevoir et gérer des architectures d'hébergement web, développer des stratégies de sécurité et de déploiements pour des clients diversifiés.
- Mettre en place des services de tests de vulnérabilité et de pénétration. Développer des politiques de sécurité défensive pour nos clients afin de répondre aux exigences réglementaires et d’audit.
- Superviser les projets administrateur système, la formation des consultants et le suivi des objectifs de développement des compétences.
Langues : Français et Anglais
Ce projet sur Malt comportait plusieurs objectifs avec l'utilisation des outils AWS existants.
Ont été réalisés :
- La Création d'un processus de sauvegarde et de restauration fiable pour RDS.
- Création d'un processus de sauvegarde et de restauration fiable pour les fichiers S3, le code, les vidéos et tout autre contenu utilisé par Streamglish.
- Création d'un nouveau processus de déploiement qui garantit une bascule automatisée en cas de défaillance.
- Mise en place de déploiement automatique de EC2 & RDS supplémentaires dans le cadre d'un scale-in/scale-out pour faciliter un trafic variable provenant d'applications Web.
- Le déplacement de tout le contenu existant de l'URL actuelle vers [URL MASQUÉE]
Migration et Upgrade PostgreSQL Project pour l’Établissement Public Territorial
du Bassin de la Dordogne EPIDOR
EPIDOR nous a sollicités pour des problèmes de performances lorsqu’ un nombre important d'agents se connectent au flux PostgreSQL depuis leur logiciel QGIS, en particulier durant les opération de relevés sur le terrain.
Le client a tout d’abord envisagé une mise à niveau de Postgresql (en version 9) pour régler ces problèmes de performances.
Afin de déterminer la ou les causes exactes des problèmes de performances rencontrés par EPIDOR, nous avons réalisé un audit de leurs bases de données et de la configuration de QGIS. En parallèle a été créé un environnement de test identique à leur infrastructure, dans nos bureaux, comme base de comparaison.
L'audit et les comparaisons effectuées ont révélé que les problèmes de performances ne résultaient pas des problèmes de performances de la base de données mais de la faible bande passante sur leur site en Dordogne. Étant donné qu’il faudra un certain temps avant qu'ils aient accès à la fibre, nous avons proposé une migration vers du AWS avec une copie miroir des bases de données : copie disponible sur un serveur dans leurs bureaux.
La proposition comprenait également la mise à niveau de Postgres de 9 à 13 et la migration vers un environnement à haute disponibilité incluant l'accès aux sauvegardes quotidiennes sur leur serveur local. Entre-temps, leur fournisseur de cloud a connu une panne catastrophique et n'a pas été en mesure de fournir des copies de leurs bases de données pendant plusieurs semaines. Ainsi, notre proposition inclut désormais des sauvegardes disponibles localement et une réplication entre deux datacenters à Paris.
Cette proposition a été acceptée et en l'espace de trois mois, toutes les bases de données postgres ont été migrées vers AWS et mises à niveau vers la dernière version 13.
Enfin, à l'aide de pgpool, tout le trafic de lecture est désormais redirigé vers leur serveur postgres local, améliorant ainsi considérablement les performances globales.
Notre objectif : trouver la solution la plus optimale pour gérer les connexions entrants et sortants de PostgreSQL.
DOTIC a sollicité un audit de sa configuration PostgreSQL et PGPool afin de résoudre des problèmes entraînant le blocage des travaux ETL ainsi que la charge de travail quotidienne de la production.
Leur configuration initiale de PostgreSQL et PGPool n'autorisait que 500 connexions simultanées.
Toutes les connexions au-delà de 500 étaient envoyées en file d'attente bloquant ainsi les nouvelles connexions utilisateurs entrantes.
Cette limite à 500 connexions n'a pas été définie à un endroit précis mais se trouvait être la conséquence de plusieurs paramètres de
configuration différents dans PostgreSQL, PGPool et le noyau hôte Linux.
Au terme d'un audit approfondi de PostgreSQL, PGPool et Linux, nous avons identifié plusieurs paramètres en cause et DOTIC peut ainsi augmenter le nombre de connexion en fonction des ressources réelles de leur machine.
Statistiques
depuis la création du compte
Votre navigateur Web n’est plus à jour. Il ne permet pas d’afficher correctement le site Codeur.com.
Nous vous invitons à mettre à jour votre navigateur ou à utiliser un autre navigateur plus récent.