Python Backend Engineer for Scalable Enterprise GenAI Systems

Python Backend Engineer for Scalable Enterprise GenAI Systems

Con RCS Innovation nasce nel Gruppo una realtà industriale che ha come focus l’innovazione digitale e quindi la dematerializzazione della conoscenza e dalla sua trasformazione mediante l’utilizzo di nuove tecnologie in nuovi formati e nuovi modi di utilizzo. L’impegno è quello di sviluppare nuove codificazioni di informazione e conoscenze finalizzate a rendere i prodotti e servizi programmabili, modificabili, flessibili e comunicabili.

L’utilizzo di nuovi elementi digitali e di componenti fisiche, combinati tra loro, forma – quindi – una nuova offerta fondata su un business model innovativo; difatti, il potenziale delle nuove tecnologie digitali, si esplica in una più ampia “digital trasformation” dei modelli di business aziendali a prescindere dalla specifica funzione osservata, dal settore di appartenenza, dal fatto che si producano beni o si eroghino servizi o dalle dimensioni aziendali.

Oggi cerchiamo una risorsa da inserire in organico: Python Back end Engineer

 

Ricoprendo questo ruolo ti occuperai progettare, sviluppare e mantenere sistemi backend ad alta scalabilità basati su Python e FastAPI, in grado di supportare applicazioni AI e GenAI di livello enterprise, con integrazione di Large Language Models e architetture di Retrieval Augmented Generation (RAG) su infrastruttura cloud-native.

Responsabilità

  • Progettare e sviluppare API backend asincrone e non bloccanti in Python (FastAPI), ottimizzate per carichi concorrenti elevati
  • Costruire e ottimizzare pipeline RAG end-to-end:
    • embedding generation
    • vector search
    • context assembly per LLM
  • Integrare Large Language Models in ambienti di produzione, gestendo:
    • latenza
    • timeout
    • costi
    • fallimenti parziali
  • Utilizzare e ottimizzare Vector Database (es. AlloyDB, Vertex AI Vector Search), comprendendone limiti, trade-off e colli di bottiglia
  • Progettare servizi stateless, scalabili orizzontalmente e resilienti
  • Definire e implementare health check applicativi (startup, readiness, liveness) coerenti con:
    • lifecycle del servizio
    • dipendenze reali (LLM, vector DB, servizi esterni)
    • comportamento sotto carico e in condizioni di degrado
  • Collaborare con i team Platform/DevOps su:
    • containerizzazione (Docker)
    • orchestrazione Kubernetes (GKE)
    • autoscaling e resource management
  • Analizzare e risolvere problemi di performance e stabilità in ambienti reali di produzione
  • Contribuire alle decisioni architetturali della piattaforma AI

Competenze tecniche richieste

  • Python avanzato
  • FastAPI o framework ASGI equivalenti
  • Programmazione asincrona (async / await)
  • Comprensione del modello di esecuzione ASGI e della concorrenzaAI, LLM & RAG
  • Esperienza pratica con Large Language Models in ambienti reali
  • Progettazione e implementazione di sistemi Retrieval Augmented Generation
  • Vector embeddings e similarity search
  • Esperienza con Vector Database, in particolare:
    • AlloyDB (PostgreSQL + vector)
    • Vertex AI Vector Search (o soluzioni analoghe)
  • Comprensione dei trade-off tra qualità della risposta, latenza e costi
  • Esperienza su Google Cloud Platform

Nice to have

  • Esperienza con LangChain, LangGraph o architetture agentiche
  • Esperienza su sistemi ad alto traffico (media, search, conversational AI)
  • Caching (Redis o equivalenti)
  • Conoscenza di principi di AI governance, sicurezza e privacy
  • Esperienza in ambienti con requisiti di affidabilità elevati

Sede di lavoro: Bari

Modalità di lavoro: Ibrida (2 volte in sede)

La ricerca è rivolta a candidati di entrambi i sessi

I dati saranno trattati e conservati esclusivamente ai fini della presente o di future selezioni, garantendo i diritti di cui all’art. 13 Dlgs 196/03 e del GDPR (Regolamento UE 2016/679).

 

Candidati per questa posizione

Formati accettati: .pdf, .doc, .docx