Ingénieur DATA (H/F)

Postuler à cette offre Partager cette offre

Offre publiée le 05/03/2025

💼 Offre d'emploi

Type de contrat
Contrat à durée indéterminée
Durée de travail
Expérience
Débutant accepté
Salaire
Permis demandé
Aucune information

📍 Entreprise

Aucun logo fourni
Employeur
Non renseigné

Lieu de travail

75 - Paris (Dept.) Voir sur une carte

Description de l'offre

Présentation de l'entreprise
Enracinée dans la région de la Marne depuis sa fondation en 2019, Anetsys incarne une entreprise dynamique du secteur informatique, basée à Reims. Son savoir-faire s'étend largement dans ce domaine, englobant les systèmes et réseaux, le développement de sites Web ainsi que la cyber-sécurité. Forte de son expertise pointue, l'équipe d'Anetsys s'efforce de proposer des solutions technologiques de premier plan, répondant aux besoins et aux défis actuels de ses clients.
Reconnu pour son expertise en France, nous sommes actuellement à la recherche d'un ingénieur Data H/F afin de renforcer les équipes.
Vos missions :
* Concevoir, développer et optimiser des pipelines de données.
* Assurer la fiabilité et la scalabilité des infrastructures data.
* Mettre en place des solutions de stockage et de traitement de données massives.
* Collaborer avec les équipes Data Science et BI pour améliorer la qualité des données.
Profil recherché :
* Expérience en ingénierie des données.
* Maîtrise des outils ETL, SQL, Spark, Hadoop, Python, et/ou Scala.
* Connaissance des plateformes Cloud (AWS, Azure, GCP).
* Capacité à optimiser les performances et la gestion des bases de données.
Environnements :
1. Langages de Programmation
* Python (Pandas, NumPy, PySpark)
* SQL (optimisation de requêtes, gestion de bases de données)
* Scala (souvent utilisé avec Apache Spark)
* Java (parfois requis pour certains frameworks Big Data)
2. Bases de Données et Stockage
* SQL : PostgreSQL, MySQL, SQL Server
* NoSQL : MongoDB, Cassandra
* Data Warehouses : BigQuery, Snowflake, Amazon Redshift
* Lacs de données (Data Lakes) : AWS S3, Azure Data Lake, Google Cloud Storage
3. Traitement et Pipelines de Données
* ETL/ELT : Apache NiFi, Talend, Airflow, DBT
* Streaming : Apache Kafka, Spark Streaming, Flink
* Batch Processing : Apache Spark, Hadoop MapReduce
4. Cloud & DevOps
* Cloud Platforms : AWS, Azure, Google Cloud Platform (GCP)
* Outils DevOps : Docker, Kubernetes, Terraform
* CI/CD : Jenkins, GitLab CI/CD
5. Outils de Visualisation & BI
* Tableau, Power BI, Looker, Superset
Les + :
- Leadership et bonnes compétences en communication pour diriger de petites équipes en temps de crise et pour avoir une communication efficace sur les niveaux de risque et de menace.
- Une bonne capacité vulgariser des problématiques complexes dans un langage non technique.
- Capacité à travailler en équipe et solides capacités d'écoute.
- Être capable de fonctionner avec un haut niveau d'autonomie.
- Une forte responsabilité au cœur de notre stratégie cybersécurité
- Une forte attention portée à l'équilibre travail et vie personnelle
- Un environnement de travail productif et agréable
Disponibilité : ASAP
Type d'emploi : CDI, Indépendant / freelance
Statut : Cadre
Avantages :
* Prise en charge du transport quotidien
* Travail à domicile occasionnel
Horaires :
* Du lundi au vendredi
Lieu du poste : Télétravail hybride (75007 Paris)

Postuler à cette offre Partager cette offre

Identifiant de cette offre d'emploi sur France Travail : 3119049

Libellé ROME de l'offre d'emploi : Développeur / Développeuse informatique (Code ROME : M1805)

Autre appellation de l'offre : Développeur / Développeuse Big Data

Offre d'emploi et contenus récupérés en partenariat avec France Travail. Cojob n'est pas responsable des informations fournies.

Offres d'emploi similaires

Offres d'emploi par ville : Paris -  Marseille -  Lyon -  Toulouse -  Nice -  Nantes -  Montpellier -  Strasbourg

© 2025 - Cojob - 20 avenue du Neuhof, 67100 Strasbourg - Contact - Mentions légales - Politique de confidentialité - Flux RSS