Python Backend Engineer for Scalable Enterprise GenAI Systems
Con RCS Innovation nasce nel Gruppo una realtà industriale che ha come focus l’innovazione digitale e quindi la dematerializzazione della conoscenza e dalla sua trasformazione mediante l’utilizzo di nuove tecnologie in nuovi formati e nuovi modi di utilizzo. L’impegno è quello di sviluppare nuove codificazioni di informazione e conoscenze finalizzate a rendere i prodotti e servizi programmabili, modificabili, flessibili e comunicabili.
L’utilizzo di nuovi elementi digitali e di componenti fisiche, combinati tra loro, forma – quindi – una nuova offerta fondata su un business model innovativo; difatti, il potenziale delle nuove tecnologie digitali, si esplica in una più ampia “digital trasformation” dei modelli di business aziendali a prescindere dalla specifica funzione osservata, dal settore di appartenenza, dal fatto che si producano beni o si eroghino servizi o dalle dimensioni aziendali.
Oggi cerchiamo una risorsa da inserire in organico: Python Back end Engineer
Ricoprendo questo ruolo ti occuperai progettare, sviluppare e mantenere sistemi backend ad alta scalabilità basati su Python e FastAPI, in grado di supportare applicazioni AI e GenAI di livello enterprise, con integrazione di Large Language Models e architetture di Retrieval Augmented Generation (RAG) su infrastruttura cloud-native.
Responsabilità
- Progettare e sviluppare API backend asincrone e non bloccanti in Python (FastAPI), ottimizzate per carichi concorrenti elevati
- Costruire e ottimizzare pipeline RAG end-to-end:
- embedding generation
- vector search
- context assembly per LLM
- Integrare Large Language Models in ambienti di produzione, gestendo:
- latenza
- timeout
- costi
- fallimenti parziali
- Utilizzare e ottimizzare Vector Database (es. AlloyDB, Vertex AI Vector Search), comprendendone limiti, trade-off e colli di bottiglia
- Progettare servizi stateless, scalabili orizzontalmente e resilienti
- Definire e implementare health check applicativi (startup, readiness, liveness) coerenti con:
- lifecycle del servizio
- dipendenze reali (LLM, vector DB, servizi esterni)
- comportamento sotto carico e in condizioni di degrado
- Collaborare con i team Platform/DevOps su:
- containerizzazione (Docker)
- orchestrazione Kubernetes (GKE)
- autoscaling e resource management
- Analizzare e risolvere problemi di performance e stabilità in ambienti reali di produzione
- Contribuire alle decisioni architetturali della piattaforma AI
Competenze tecniche richieste
- Python avanzato
- FastAPI o framework ASGI equivalenti
- Programmazione asincrona (async / await)
- Comprensione del modello di esecuzione ASGI e della concorrenzaAI, LLM & RAG
- Esperienza pratica con Large Language Models in ambienti reali
- Progettazione e implementazione di sistemi Retrieval Augmented Generation
- Vector embeddings e similarity search
- Esperienza con Vector Database, in particolare:
- AlloyDB (PostgreSQL + vector)
- Vertex AI Vector Search (o soluzioni analoghe)
- Comprensione dei trade-off tra qualità della risposta, latenza e costi
- Esperienza su Google Cloud Platform
Nice to have
- Esperienza con LangChain, LangGraph o architetture agentiche
- Esperienza su sistemi ad alto traffico (media, search, conversational AI)
- Caching (Redis o equivalenti)
- Conoscenza di principi di AI governance, sicurezza e privacy
- Esperienza in ambienti con requisiti di affidabilità elevati
Sede di lavoro: Bari
Modalità di lavoro: Ibrida (2 volte in sede)
La ricerca è rivolta a candidati di entrambi i sessi
I dati saranno trattati e conservati esclusivamente ai fini della presente o di future selezioni, garantendo i diritti di cui all’art. 13 Dlgs 196/03 e del GDPR (Regolamento UE 2016/679).