One Week One Job - AMOA, Etudes et Solutions SI : Évènement de recrutement en speed-hiring, du 29 juin au 2 Juillet 2021

Découvrez les détails de la prochaine session de recrutement en speed-hiring, 100% virtuelle, pour le compte de Société Générale African Business Services. Plus de 30 postes sont à pourvoir ! 

Détails  


/

Tech Lead BigData en Freelance

Casablanca, Maroc
Ref. :
002170

Dans le cadre de l’industrialisation de l'entité de notre client, nous sommes à la recherche d’un Expert Big data qui allie les connaissances Big Data aux bonne pratiques du développement logiciel.

L’objectif principal étant d’implémenter un « système logiciel » complet en Py-Spark qui permette les éléments suivants :

  •  Fonctions ETL (Extract Transform and Load) : Lecture des données depuis notre data lake, transformation selon les règles fonctionnelles définies et Chargement dans nos bases de données dans les Cloud AWS.

  •  Fonction extractions : Permettre une extraction rapide des données selon les formats demandés par le métier sans que cela ne demande un effort conséquent au près des développeurs

  •  Webservices Data :  Permettre aux applications utilisant nos données d’y accéder par webservice.

Mission :

  • L’expert devra mettre en place le système cité plus haut en alliant le respect des bonnes pratiques de développement et l’optimisation des temps de traitement.

  • Il accompagnera également le Tech Lead à faire monter en compétence de l’équipe sur les nouvelles pratiques mises en place. 

  • L’objectif étant d’aider l’équipe à investir ses efforts dans la création de livrables à forte valeur ajoutée.

Profil :

  • Bac + 5 ou équivalent en informatique (spécialité data appréciée)

  • 10 ans d’expérience en gestion de logiciels d’exploitation de données

  • Disposer d’une expérience en matière de refactoring et de maintenance de code, de modèles de conception, d'applications hautement évolutives, de sécurité des applications

  • Disposer d’une expertise en pair programming, intégration continue, unit testing

  • Disposer d’une expertise Data et particulièrement de l’écosystème Hadoop

Langages/Technologies :

Expertise

  • Python, Py-Spark

  • Ecosystème Hadoop : Hive, HDFS, Hbase, Pig

  • ETL (Talend, Alteryx ou autre)

  • Langage SQL et Gestion de Bases de données ORACLE et postgresql

Expérience significative/Bonne connaissance :

  • Background UNIX/Linux + Centos (RHEL) and Ubuntu

  • VMware, conteneurisation, Docker

  • Cloud (AWS idéalement)

  • Scripting (Shell,bash …)

  • Continuous Integration/ continuous Deployment (Ancible, Circle CI, Jenkins, Hudson, Sonar / Sonar Cube, Git/Bitbucket/GitHub, OpenShift, OpenStack, Kubernetes)