AI Platform Developer

Con Rcs Innovation nasce nel Gruppo una realtà industriale che ha come focus l’innovazione digitale e quindi la dematerializzazione della conoscenza e dalla sua trasformazione mediante l’utilizzo di nuove tecnologie in nuovi formati e nuovi modi di utilizzo. L’impegno è quello di sviluppare nuove codificazioni di informazione e conoscenze finalizzate a rendere i prodotti e servizi programmabili, modificabili, flessibili e comunicabili.

L’utilizzo di nuovi elementi digitali e di componenti fisiche, combinati tra loro, forma – quindi – una nuova offerta fondata su un business model innovativo; difatti, il potenziale delle nuove tecnologie digitali, si esplica in una più ampia “digital trasformation” dei modelli di business aziendali a prescindere dalla specifica funzione osservata, dal settore di appartenenza, dal fatto che si producano beni o si eroghino servizi o dalle dimensioni aziendali.

 

Oggi cerchiamo una risorsa da inserire in organico: AI Platform Developer 

 

Requisiti richiesti 

  • Laurea in Ingegneria, Informatica o discipline affini 
  • Almeno 5 anni di esperienza nello sviluppo di soluzioni data-driven 
  • Coinvolgimento in progetti Agile, con familiarità nei cicli di sviluppo iterativi 
  • Ottime capacità relazionali e di comunicazione 
  • Predisposizione al lavoro in team multidisciplinari e internazionali 

 

Competenze tecniche richieste 

  • Solida conoscenza di Python, utilizzato per lo sviluppo di pipeline dati, automazioni e componenti a supporto di modelli di Machine Learning, Deep Learning e Generative AI 
  • Esperienza nello sviluppo, fine-tuning e deployment di modelli di Generative AI, con particolare focus su Large Language Models e modelli multimodali.  
  • Conoscenza delle principali tecniche di adattamento e ottimizzazione come LoRA, PEFT e RAG , applicate a use case di NLP, generazione di codice, generazione di contenuti o assistenti AI. Capacità di integrare questi modelli in architetture scalabili e performanti su ambienti cloud (es. Vertex AI, AWS Sagemaker, Azure OpenAI). 
  • Esperienza nell’uso di Google Composer per l’orchestrazione di pipeline ETL complesse e flussi MLOps 
  • Competenze nell’uso di BigQuery come data warehouse per analisi avanzate e gestione di grandi volumi di dati, incluso data provisioning per modelli generativi (es. LLM) 
  • Esperienza con Apache Spark per il processamento distribuito di dati, inclusi use case di data preparation e fine-tuning per modelli di AI generativa 
  • Familiarità con Cloud Build per la gestione di pipeline CI/CD, incluso il deploy continuo di modelli AI e di applicazioni basate su modelli generativi 
  • Esperienza nella costruzione di soluzioni AI-driven in ambienti cloud-native, supportando lo sviluppo, la gestione e l’esposizione di modelli predittivi e generativi (preferibilmente su Google Cloud Platform) 
  • Conoscenza del linguaggio SQL per interrogazioni complesse, data wrangling e supporto a dataset sintetici da utilizzare per applicazioni AI 
  • Esperienza con framework Big Data come Spark, Airflow, anche in contesti di data ingestion, preprocessing e gestione di prompt/dataset  
  • Esperienza con framework Big Data di ultima generazione (es. Spark, Airflow, Delta Lake), anche in contesti di ingestion, preprocessing e ottimizzazione di dataset strutturati e non strutturati per l’alimentazione di modelli di Generative AI (LLM multimodali) 
  • Conoscenza dei principi di data modeling, gestione dati in real-time e best practice per la data governance nei progetti AI, con attenzione a trasparenza, tracciabilità e qualità dei dati 

 

Plus 

  • Conoscenza di MLflow, Vertex AI, TensorFlow Extended (TFX) o strumenti analoghi per il supporto al ciclo di vita dei modelli di machine learning e generativi 
  • Esperienza nella collaborazione con team di Data Scientist, MLOps e Prompt Engineer per la produzione, integrazione e monitoraggio di modelli di AI (classificatori, regressori, forecasting, computer vision, NLP) e Generative AI (es. LLM, text-to-image, code generation) 
  • Familiarità con strumenti e framework come Hugging Face, LangChain, OpenAI API, Pinecone o similari per la creazione di applicazioni basate su modelli linguistici di grandi dimensioni 

 

 

Sede di lavoro BARI

Modalità di lavoro: Ibrida (2 volte in sede)

La ricerca è rivolta a candidati di entrambi i sessi.

I dati saranno trattati e conservati esclusivamente ai fini della presente o di future selezioni, garantendo i diritti di cui all’art. 13 Dlgs 196/03 e del GDPR (Regolamento UE 2016/679).

 

Candidati per questa posizione

Formati accettati: .pdf, .doc, .docx