AI Deployment Engineer
Musa Tecnologia LTDA
Software Engineering, Data Science
são paulo, state of são paulo, brazil
Posted on Apr 25, 2026
O que é essa vaga
A Musa tem hoje uma família de agentes rodando em produção na operação. Não são chatbot. São agentes que fecham conta, garantem processo e caçam erro em fluxo crítico de negócio.
Alguns exemplos:
AI Deployment Engineer é quem faz esse caminho existir sem quebrar.
O que você vai fazer
Obrigatório:
Manda seu LinkedIn, currículo ou link do que você construiu, com resposta curta pra:
"Qual foi o último agente ou sistema de AI que você levou pra produção? O que ele fazia, o que quebrou no caminho, e como você resolveu?"
A Musa tem hoje uma família de agentes rodando em produção na operação. Não são chatbot. São agentes que fecham conta, garantem processo e caçam erro em fluxo crítico de negócio.
Alguns exemplos:
- Polvo do Faturamento — pega corner case, revisa regra contratual e fecha cálculo de medição customizada num mercado onde cada cliente tem regra diferente
- Agente de Coletas — garante aderência de processo dos parceiros e revisa inconsistência antes que vire problema
- Caçador de MTR — plugado no core, pega rebarba e erro sistêmico em integração com órgão público, e engole processo massivo não sistematizado que seriam horas de trabalho manual
AI Deployment Engineer é quem faz esse caminho existir sem quebrar.
O que você vai fazer
- Colocar novos agentes em produção em fluxo crítico de negócio (coleta, MTR, faturamento, compliance)
- Construir a infra compartilhada que hoje não existe: pipeline de deploy, eval automatizado, observability, rollback seguro
- Definir padrão de arquitetura de agente pra Musa. Cada novo agente que entra usa o que você construiu
- Trabalhar colado com produto, ops e os times que são "donos" dos fluxos que os agentes automatizam
- Decidir quando AI resolve e quando não resolve. Nem tudo precisa ser agente.
- Fazer PoC que não vai a produção
- Trabalhar isolado do negócio — agente sem contexto de operação não funciona
- Esperar spec pronta: você define o caminho técnico
Obrigatório:
- Já levou LLM ou agente de protótipo pra algo mais sério: SLA, escala, fluxo de negócio real. Não precisa ser unicórnio, precisa ter carregado o bebê
- Conhece RAG, orquestração, avaliação e guardrails como trade-off vivido, não como slide de conferência
- Sabe quando usar modelo fechado, quando fine-tunar, quando nem precisava de AI
- Python sólido. Experiência em cloud (temos AWS, mas discutimos)
- Mentalidade de dono: você entrega o agente rodando em produção, não o protótipo
- Já construiu infra de agente em produção (observability, eval, feature flag, rollback)
- Experiência com orquestração (LangGraph, CrewAI, ou arquitetura própria)
- Conhecimento de fluxo de negócio B2B complexo (cobrança, compliance, operação logística)
- Já trabalhou em startup em fase de scale-up
- Researcher que quer fine-tunar modelo o dia todo: aqui o jogo é colocar em produção
- Engenheiro que acha que LLM é ferramenta mágica: a gente já sabe que não é, e precisa de quem tenha as cicatrizes pra provar
- Perfil que precisa de arquitetura pronta pra executar: na Musa você define a arquitetura
- Quem quer construir agente pra portfolio: aqui o agente tem que rodar, gerar dinheiro ou economizar hora de gente real
- Climatetech real: gestão de resíduos em escala nacional, impacto ambiental mensurável
- AI em produção, não em slide: Polvo, Coletas e Caçador rodam hoje. Você multiplica e padroniza
- Time enxuto, impacto grande: o que você faz aparece no resultado da empresa
- Anti-corporate: sem politicagem, sem 14 camadas de aprovação. Autonomia com accountability
Manda seu LinkedIn, currículo ou link do que você construiu, com resposta curta pra:
"Qual foi o último agente ou sistema de AI que você levou pra produção? O que ele fazia, o que quebrou no caminho, e como você resolveu?"