Retour aux offres
- 23.01.2023
- Data Engineer
Data Engineer confirmé - CDI - Levallois-Perret - (H/F)
Data Engineer dans la startup qui analyse les réseaux sociaux
La société en quelques mots:Â
- Produit : Analyse de conversations publiques sur les réseaux sociaux afin de faire de l'analyse de risques.
- Création en 2017 et une levée de fonds de +10 millions en 2020.
- Clients : Dassault, Danone...
- Effectif de l'entreprise : 50 personnes
- Votre équipe : un PM et une Data Engineer senior.
Les missions:
- Construire, développer et maintenir un pipeline robuste et performant pour ingérer une volumétrie de données importante
- Implémenter des algorithmes mis en production par l'équipe de Data Scientists
- Collecter, nettoyer et traiter la donnée mis à disposition pour la rendre compréhensible
Votre profil:
- 2 ans au minimum d'expérience sur Scala et Spark
- Expérience sur un cloud (AWS, GCP ou Azure)
Les nice to have :
- Culture devOps : Docker, Kubernetes, Terraform...
- Avoir déjà travaillé avec un orchestrateur comme Airflow (ou un équivalent)
- Avoir déjà travaillé avec Kafka
- Un intérêt pour les sujets algorithmiques
Pourquoi les rejoindre :
- Un socle technologique solide et éprouvé issu de 3 ans de travaux de recherche à l'Ecole Polytechnique Fédérale de Lausanne par un des co-fondateurs
- Une rémunération pouvant monter jusqu'à 70k fixe
- Bureaux flambant neufs à Levallois
- Entreprise "éthique" qui vise à prévenir des risques (politiques, économiques, industriels...)Â
- Politique remote : 2 jours / semaine
- Une levée de fonds en cours
- Un CTO par qui j'aimerai être managé
Hâte de vous en dire plus rapidement !
- Produit : Analyse de conversations publiques sur les réseaux sociaux afin de faire de l'analyse de risques.
- Création en 2017 et une levée de fonds de +10 millions en 2020.
- Clients : Dassault, Danone...
- Effectif de l'entreprise : 50 personnes
- Votre équipe : un PM et une Data Engineer senior.
Les missions:
- Construire, développer et maintenir un pipeline robuste et performant pour ingérer une volumétrie de données importante
- Implémenter des algorithmes mis en production par l'équipe de Data Scientists
- Collecter, nettoyer et traiter la donnée mis à disposition pour la rendre compréhensible
Votre profil:
- 2 ans au minimum d'expérience sur Scala et Spark
- Expérience sur un cloud (AWS, GCP ou Azure)
Les nice to have :
- Culture devOps : Docker, Kubernetes, Terraform...
- Avoir déjà travaillé avec un orchestrateur comme Airflow (ou un équivalent)
- Avoir déjà travaillé avec Kafka
- Un intérêt pour les sujets algorithmiques
Pourquoi les rejoindre :
- Un socle technologique solide et éprouvé issu de 3 ans de travaux de recherche à l'Ecole Polytechnique Fédérale de Lausanne par un des co-fondateurs
- Une rémunération pouvant monter jusqu'à 70k fixe
- Bureaux flambant neufs à Levallois
- Entreprise "éthique" qui vise à prévenir des risques (politiques, économiques, industriels...)Â
- Politique remote : 2 jours / semaine
- Une levée de fonds en cours
- Un CTO par qui j'aimerai être managé
Hâte de vous en dire plus rapidement !
╳
Postuler
╳
Postuler