Ingénieur principal des données, Placements sur les marchés publics et non traditionnels, Plateformes de données
CPP Investments
- Toronto, ON
- Permanent
- Temps-plein
- Travailler avec des collègues inspirants qui ont des parcours différents et avec des dirigeants faciles à aborder
- Évoluer dans un environnement de travail hautement dynamique et stimulant intellectuellement
- Voir votre rôle et vos responsabilités s'accroître rapidement
- Profiter d'occasions mondiales de perfectionnement professionnel
- Être inspiré au quotidien par la mission sociale essentielle et les principes inébranlables de RPC Investissements
- Un environnement de travail souple et hybride qui réunit la collaboration au bureau et le travail à distance
- Partager de solides valeurs d'intégrité, de collaboration et d'excellence du rendement
- Concevoir, mettre en œuvre et déployer les pipelines de données pour transformer (structurer et cartographier) les données des fournisseurs dans le format standard de l'OIRPC
- Concevoir et mettre en œuvre le modèle de données et les données neutres de la stratégie enrichie
- Concevoir et mettre en œuvre le service de données à l'aide d'Amazon Web Service (AWS)
- Concevoir et mettre en œuvre des analyses et des outils liés aux données, en plus des processus opérationnels
- Traiter les exceptions quotidiennes relatives aux données en temps opportun et fournir un soutien opérationnel de niveau 3
- Se tenir au fait des nouveaux produits des fournisseurs de données et de la façon dont ils peuvent être utilisés par les groupes de placement quantitatif
- Gérer et rehausser l'infrastructure de données de placement au moyen d'initiatives visant notamment l'amélioration de l'intégrité des données et des métadonnées
- Travailler conjointement avec des utilisateurs professionnels, des ingénieurs, des architectes, des chercheurs et des experts en science des données dans un environnement dynamique
- Baccalauréat en informatique ou en génie informatique
- Expérience pratique des technologies d'ingénierie des données comme AWS Glue, EMR, Athena, Redshift, Lake Formation, Apache Spark, Apache Hive, Apache Airflow, S3, CloudWatch, Lambda, Apache Hudi, API Gateway, GraphQL, Elastic Search, Elastic Cache et Trino
- Expérience pratique avec le pipeline d'intégration et de livraison continues avec Terraform, Jenkins, Github Actions et Gitflow
- Expérience de travail avec les API RESTful. Connaissance de l'architecture des microservices
- Solides compétences en programmation (Python, PySpark, SQL, Java) et expérience professionnelle en programmation de données (extraction, manipulation, regroupement, analyse, conception de modèles de données, etc.), un impératif
- Expérience dans la construction de pipelines de données au moyen d'outils d'orchestration comme Apache Airflow