Con Rcs Innovation nasce nel Gruppo una realtà industriale che ha come focus l’innovazione digitale e quindi la dematerializzazione della conoscenza e dalla sua trasformazione mediante l’utilizzo di nuove tecnologie in nuovi formati e nuovi modi di utilizzo. L’impegno è quello di sviluppare nuove codificazioni di informazione e conoscenze finalizzate a rendere i prodotti e servizi programmabili, modificabili, flessibili e comunicabili.
L’utilizzo di nuovi elementi digitali e di componenti fisiche, combinati tra loro, forma – quindi – una nuova offerta fondata su un business model innovativo; difatti, il potenziale delle nuove tecnologie digitali, si esplica in una più ampia “digital trasformation” dei modelli di business aziendali a prescindere dalla specifica funzione osservata, dal settore di appartenenza, dal fatto che si producano beni o si eroghino servizi o dalle dimensioni aziendali.
Oggi cerchiamo una risorsa da inserire in organico: AI Platform Developer
Requisiti richiesti
- Laurea in Ingegneria, Informatica o discipline affini
- Almeno 5 anni di esperienza nello sviluppo di soluzioni data-driven
- Coinvolgimento in progetti Agile, con familiarità nei cicli di sviluppo iterativi
- Ottime capacità relazionali e di comunicazione
- Predisposizione al lavoro in team multidisciplinari e internazionali
Competenze tecniche richieste
- Solida conoscenza di Python, utilizzato per lo sviluppo di pipeline dati, automazioni e componenti a supporto di modelli di Machine Learning, Deep Learning e Generative AI
- Esperienza nello sviluppo, fine-tuning e deployment di modelli di Generative AI, con particolare focus su Large Language Models e modelli multimodali.
- Conoscenza delle principali tecniche di adattamento e ottimizzazione come LoRA, PEFT e RAG , applicate a use case di NLP, generazione di codice, generazione di contenuti o assistenti AI. Capacità di integrare questi modelli in architetture scalabili e performanti su ambienti cloud (es. Vertex AI, AWS Sagemaker, Azure OpenAI).
- Esperienza nell’uso di Google Composer per l’orchestrazione di pipeline ETL complesse e flussi MLOps
- Competenze nell’uso di BigQuery come data warehouse per analisi avanzate e gestione di grandi volumi di dati, incluso data provisioning per modelli generativi (es. LLM)
- Esperienza con Apache Spark per il processamento distribuito di dati, inclusi use case di data preparation e fine-tuning per modelli di AI generativa
- Familiarità con Cloud Build per la gestione di pipeline CI/CD, incluso il deploy continuo di modelli AI e di applicazioni basate su modelli generativi
- Esperienza nella costruzione di soluzioni AI-driven in ambienti cloud-native, supportando lo sviluppo, la gestione e l’esposizione di modelli predittivi e generativi (preferibilmente su Google Cloud Platform)
- Conoscenza del linguaggio SQL per interrogazioni complesse, data wrangling e supporto a dataset sintetici da utilizzare per applicazioni AI
- Esperienza con framework Big Data come Spark, Airflow, anche in contesti di data ingestion, preprocessing e gestione di prompt/dataset
- Esperienza con framework Big Data di ultima generazione (es. Spark, Airflow, Delta Lake), anche in contesti di ingestion, preprocessing e ottimizzazione di dataset strutturati e non strutturati per l’alimentazione di modelli di Generative AI (LLM multimodali)
- Conoscenza dei principi di data modeling, gestione dati in real-time e best practice per la data governance nei progetti AI, con attenzione a trasparenza, tracciabilità e qualità dei dati
Plus
- Conoscenza di MLflow, Vertex AI, TensorFlow Extended (TFX) o strumenti analoghi per il supporto al ciclo di vita dei modelli di machine learning e generativi
- Esperienza nella collaborazione con team di Data Scientist, MLOps e Prompt Engineer per la produzione, integrazione e monitoraggio di modelli di AI (classificatori, regressori, forecasting, computer vision, NLP) e Generative AI (es. LLM, text-to-image, code generation)
- Familiarità con strumenti e framework come Hugging Face, LangChain, OpenAI API, Pinecone o similari per la creazione di applicazioni basate su modelli linguistici di grandi dimensioni
Sede di lavoro BARI
Modalità di lavoro: Ibrida (2 volte in sede)
La ricerca è rivolta a candidati di entrambi i sessi.
I dati saranno trattati e conservati esclusivamente ai fini della presente o di future selezioni, garantendo i diritti di cui all’art. 13 Dlgs 196/03 e del GDPR (Regolamento UE 2016/679).