Data Architect Senior Specialist
CERVED GROUP S.P.A.
Descrizione dell'offerta
Cerved è la tech company italiana che, grazie a segnali predittivi unici e a un patrimonio esclusivo di dati e analytics, supporta la crescita sostenibile, la gestione del rischio e la trasformazione digitale di imprese e istituzioni.
Con Cerved Rating Agency, elaboriamo valutazioni sul merito di credito, rating ESG e analisi sulle emissioni di debito.
Dal 2021 Cerved è parte di ION Group, uno dei più grandi operatori FinTech internazionali.
In un contesto in costante evoluzione normativa e tecnologica, stiamo cercando un/a Data Architect da inserire nell’area Data Management.
Il/la candidato/a sarà parte attiva nella (progettazione e governo dell’architettura dati aziendale, contribuendo alla costruzione di una piattaforma dati moderna, scalabile e orientata al dato come asset strategico).
Le principali responsabilità:
-
Progettare e mantenere l’ architettura della piattaforma dati (Data Lake, Data Warehouse, Lakehouse) su AWS e Databricks
-
Definire standard, best practice e linee guida architetturali per la gestione e la governance del dato (data modeling, data lineage, data quality, data catalog);
-
Disegnare e supervisionare pipeline di ingestione, trasformazione e distribuzione dei dati utilizzando Apache Spark , Databricks e servizi AWS
-
Guidare la scelta delle tecnologie e dei pattern architetturali (batch, streaming, lambda/kappa architecture, medallion architecture) in base ai requisiti di business;
-
Sviluppare componenti e prototipi in Java e Python per validare soluzioni architetturali e accelerare l’adozione di nuovi pattern
-
Collaborare con i team di Data Engineering, Data Science, BI e Product per garantire coerenza architetturale e qualità dei dati end-to-end;
-
Presidiare aspetti di sicurezza , compliance e data governance (GDPR, controllo degli accessi, cifratura, auditing) all’interno della piattaforma dati;
-
Valutare e introdurre nuove tecnologie e framework del panorama dati (Apache Iceberg, Delta Lake, dbt, Apache Kafka, Flink) in ottica di miglioramento continuo;
-
Collaborare con i team di Data Science e AI/ML per progettare infrastrutture dati a supporto di modelli di Machine Learning e soluzioni di Intelligenza Artificiale Generativa (Feature Store, model serving, RAG pipeline, LLMOps);
-
Supportare l’adozione di servizi AWS AI/ML garantendo la disponibilità e la qualità dei dati necessari all’addestramento e all’inferenza dei modelli.
I requisiti:
-
Esperienza di almeno 3-5 anni in ambito architettura dati, data engineering o ruoli analoghi;
-
Laurea in Informatica, Ingegneria Informatica, Matematica o discipline affini; certificazioni AWS (es. AWS Solutions Architect, AWS Data Analytics) o Databricks sono considerate un plus
-
Solida conoscenza di Apache Spark e Databricks (Spark SQL, Structured Streaming, Delta Lake, Unity Catalog);
-
Competenze avanzate in Python e/o Java per lo sviluppo di pipeline dati e componenti di integrazione;
-
Esperienza concreta con i principali servizi AWS per i dati: S3, Glue, Athena, Redshift, EMR, Kinesis, Lake Formation, Step Functions, IAM;
-
Conoscenza approfondita dei paradigmi di data modeling (relazionale, dimensionale, Data Vault) e dei formati di storage columnar (Parquet, ORC, Iceberg, Delta);
-
Familiarità con strumenti di orchestrazione (Apache Airflow, Databricks Workflows) e di trasformazione dati (dbt);
-
Conoscenza dei principi di data governance , data quality e metadata management; gradita esperienza con soluzioni di data catalog (es. Apache Atlas, AWS Glue Data Catalog, Databricks Unity Catalog);
-
Comprensione delle architetture streaming (Apache Kafka, Kinesis Data Streams) e dei relativi pattern di integrazione
-
Capacità di lavorare in ambienti Agile/DevOps ; conoscenza di IaC (Terraform, CloudFormation) e CI/CD per pipeline dati costituisce un plus;
-
Ottime capacità comunicative e relazionali, con attitudine al problem solving, alla collaborazione cross-funzionale e alla condivisione della conoscenza tecnica;
-
Conoscenza dei principali paradigmi e tecnologie di AI/ML applicati ai dati : MLflow, SageMaker, Databricks MLflow/AutoML, Vector Database (es. Pinecone, OpenSearch, pgvector) e architetture per Generative AI (RAG, embedding pipeline, LLM fine-tuning);
-
Familiarità con il ciclo di vita end-to-end dei modelli ML (MLOps/LLMOps): versionamento dei dati e dei modelli, feature engineering, monitoraggio del modello in produzione e data drift detection.
💻 Modalità di lavoro: ibrida, con ampia possibilità di smart working.
📍 Sede di lavoro: Milano, Padova , Roma o Mangone (CS)
#LI-Hybrid
Cerved Group garantisce (ai sensi del D.Lgs 198/2006, D.Lgs.215/2003 e D.Lgs.216/2003) pari opportunità di accesso al lavoro a tutt* i/le candidat* e si impegna a favorire il rispetto delle diversità e l’inclusione sul posto di lavoro.
14 Aprile 2026
Il lavoro dei tuoi sogni ti aspetta
Unisciti alle oltre 150.000 persone che hanno già utilizzato Jobiri per trovare lavoro