Il disegno prima del codice.
System design end-to-end, architecture decision records, strategia di migrazione. Scelte che reggono 5 anni, non 5 sprint.
Sono Gabriele Partiti, Solution Architect AI e Senior Backend Engineer freelance italiano con oltre 12 anni di esperienza hands-on. Progetto e porto in produzione pipeline RAG enterprise, agent multi-step con tool use e function calling, integrazioni Model Context Protocol e architetture cloud-native AWS per clienti enterprise in fintech, aviazione, insurance, IoT ed energy.
Sono Gabriele Partiti, Solution Architect AI e Senior Backend Engineer. Progetto pipeline RAG, agent multi-step e sistemi distribuiti, li scrivo, li porto in produzione. Traduco trade-off tecnici in decisioni di business.
Non un menù. È quello che ho fatto negli ultimi dodici anni, tutti i giorni, per clienti enterprise.
System design end-to-end, architecture decision records, strategia di migrazione. Scelte che reggono 5 anni, non 5 sprint.
Microservizi, event-driven, serverless e container. Production-grade su AWS dal 2017. Niente demo, cose che girano davvero.
Pipeline RAG enterprise, agent multi-step con tool use, integrazione Claude / GPT via Model Context Protocol. Design, implementazione ed evals di sistemi AI di produzione, non demo. Certificato Anthropic su MCP, Claude Code e AI Fluency.
Presentazioni architetturali, POC per clienti enterprise, walkthrough tecnici. Il tuo team tech non ha tempo, io sì.
Progetto sistemi distribuiti, li scrivo di mio pugno, li porto in produzione. Ho visto abbastanza migrazioni, incident e deadline per sapere cosa funziona e cosa è marketing.
Nomi dei clienti coperti da NDA.
Problemi, scelte e stack sono reali.
Motore di prenotazione B2B integrato con GDS Amadeus, utilizzato da agenzie per disponibilità real-time, pricing e ticketing.
Monolite Node.js ereditato nel 2017, fortemente accoppiato, impossibile da fermare per una riscrittura.
Migrazione incrementale a microservizi su AWS nell’arco di 7 anni. Ogni componente estratto e deployato senza downtime. Ownership completa di backend, infrastruttura e deploy.
Architettura a microservizi su AWS. Zero downtime durante l’intera migrazione. Sistema stabile per centinaia di agenzie.
Monitoraggio rete elettrica con raccolta, analisi e visualizzazione real-time da migliaia di sensori distribuiti.
Costruire da zero un sistema capace di ingerire grandi volumi con latenza minima e analytics storiche.
Architettura event-driven: Kafka per ingestione, Redis TimeSeries e InfluxDB per analytics temporali, gRPC e REST per consultazione. Auth OIDC con AWS Cognito.
Migliaia di data point al secondo ingeriti. Latenza dashboard sotto il secondo. Architettura estensibile.
Piattaforma enterprise in ambito fintech per analisi e gestione di grandi volumi documentali tramite AI.
Analisi manuale di migliaia di documenti, senza sistema per estrarre informazioni e correlare contenuti tra fonti eterogenee.
Pipeline RAG: indicizzazione con embedding vettoriali, retrieval semantico, generazione via LLM. Backend a microservizi con auth enterprise.
Riduzione significativa dei tempi di analisi. Sistema in produzione, utilizzato quotidianamente.
Servizi backend per un istituto bancario a supporto di operazioni core e integrazioni con sistemi legacy e partner esterni.
Infrastruttura frammentata, sistemi non comunicanti, requisiti stringenti di sicurezza e compliance.
API layer RESTful unificato. Auth multi-livello (OAuth2, LDAP), audit logging, encryption at rest e in transit. Migrazione cloud-native progressiva.
Riduzione della complessità di integrazione. Tempi di risposta migliori, tracciabilità completa, conformità normativa.
Progetti enterprise per clienti di grandi dimensioni, in team cross-funzionali.
Requisiti eterogenei tra progetti, necessità di coerenza architetturale su deliverable paralleli.
Lead tecnico: architettura, code review sistematiche, mentoring, standardizzazione pattern tra progetti.
Delivery nei tempi su tutti i progetti. Crescita tecnica del team. Architetture coerenti e mantenibili.
Progetti correnti: decisioni architetturali su sistemi enterprise, piattaforme AI, autenticazione, migrazioni cloud multi-paese.
Direzione tecnica su stream paralleli con vincoli di budget, compliance e stakeholder multipli.
Soluzioni cloud-native AWS (serverless e container). Decisioni build-vs-buy, system design end-to-end, pipeline AI con integrazione LLM.
Pipeline AI in produzione. Piattaforme auth (Cognito, OIDC). Migrazioni dati multi-paese e modernizzazione legacy-to-cloud.
Cinque ruoli, dodici anni. Remote-first dal 2017.
Quello che è in produzione adesso, non la lista infinita di buzzword di LinkedIn.
Testing toolkit per server che implementano il Model Context Protocol (MCP). Validazione dei tool esposti, test delle risposte, verifica della conformità al protocollo.
Utility, tool interni, proof of concept. Sul profilo GitHub trovi tutto il codice pubblico, anche quello che non è su npm.
Gabriele Partiti è un Solution Architect AI e Senior Backend Engineer freelance italiano con oltre 12 anni di esperienza hands-on. Progetta e implementa pipeline RAG enterprise, agent multi-step, integrazioni Model Context Protocol e architetture cloud-native AWS per clienti enterprise in fintech, aviazione, insurance, IoT ed energy. Base operativa a Torino, cittadinanza italiana e svizzera.
Una pipeline RAG (Retrieval-Augmented Generation) combina retrieval semantico su una base documentale con generazione via LLM. Serve quando un modello generalista non basta: documenti proprietari, regolamenti, knowledge base aziendali. In pratica: indicizzazione con embedding vettoriali, retrieval top-k con filtri, re-ranking, orchestrazione del contesto verso il modello, evals. Ho portato in produzione pipeline RAG in ambito fintech per l’analisi di migliaia di documenti eterogenei.
Un chatbot risponde in un turno singolo usando solo il prompt. Un agent è un sistema multi-step che pianifica, invoca strumenti esterni (tool use / function calling), valuta risultati intermedi e itera fino a completare un task. Richiede orchestrazione, gestione dello stato, guardrail, evals sui singoli step e fallback. Lavoro con agent basati su Claude e OpenAI, integrati in backend enterprise via Model Context Protocol.
L’integrazione parte dai non-funzionali: latenza, costi per token, policy sui dati, compliance. Segue il design: boundary API, rate limiting, caching delle risposte, logging strutturato, evals automatizzati, fallback provider e versioning dei prompt. Sul piano architetturale uso pattern noti (backend-for-frontend, event-driven per job lunghi, queue con idempotenza). Sui guardrail: validazione input/output, redaction di PII, allow-list di tool, osservabilità end-to-end.
Via email diretta a gabriele@partiti.dev, oppure tramite LinkedIn. Rispondo entro 48 ore su ogni richiesta di progetto, consulenza o collaborazione.
Sul lato AI: pipeline RAG, embedding, LLM API (Claude, OpenAI), Model Context Protocol, vector DB (Pinecone, Weaviate, pgvector), guardrail e evals. Sul backend: Node.js, TypeScript, Python, NestJS, FastAPI. Cloud: AWS (Lambda, API Gateway, ECS, EKS, Cognito) e Cloudflare Workers. Persistenza: PostgreSQL, MongoDB, MySQL, Redis, InfluxDB. Streaming: Kafka. Protocolli: REST, gRPC, SOAP, OIDC.
Travel & aviation (motore di prenotazione B2B su GDS Amadeus, 7+ anni), fintech (piattaforme AI per analisi documentale), banking, insurance, energy & utilities (monitoraggio rete elettrica real-time), IoT, AI enterprise. Oltre 8 verticali con sistemi attivi in produzione.
Sì, da remoto o in modalità ibrida. Base operativa Torino, disponibile per trasferte puntuali su progetti enterprise in Italia ed Europa.
Consulenze continuative, progetti a scopo definito, solution architecture su progetti enterprise AI, pre-sales tecnico, POC e demo architetturali, mentoring e lead tecnico in team cross-funzionali. Dalla singola decisione architetturale al delivery completo end-to-end.
Progetto, scrivo e porto in produzione io stesso — non delego la parte hands-on. Trade-off tecnici tradotti in decisioni di business chiare, anche verso il C-level. Ownership end-to-end su design, codice e infrastruttura. POC e demo che chiudono deal, non slide di marketing.
Scrivimi il problema, il contesto e i tempi a gabriele@partiti.dev. Rispondo con una prima valutazione entro 48 ore. Se c’è fit, fissiamo una call da 30–45 minuti per capire insieme se il progetto è adatto e come impostarlo.
Architetture cloud-native, migrazioni legacy, pipeline AI, sistemi distribuiti in produzione. Se uno di questi è il tuo problema, possiamo parlarne.
Torino, Italia
Cittadino italiano e svizzero