AI Deployment Engineer

Musa Tecnologia LTDA

Musa Tecnologia LTDA

Software Engineering, Data Science

são paulo, state of são paulo, brazil

Posted on Apr 25, 2026
O que é essa vaga

A Musa tem hoje uma família de agentes rodando em produção na operação. Não são chatbot. São agentes que fecham conta, garantem processo e caçam erro em fluxo crítico de negócio.

Alguns exemplos:

  • Polvo do Faturamento — pega corner case, revisa regra contratual e fecha cálculo de medição customizada num mercado onde cada cliente tem regra diferente
  • Agente de Coletas — garante aderência de processo dos parceiros e revisa inconsistência antes que vire problema
  • Caçador de MTR — plugado no core, pega rebarba e erro sistêmico em integração com órgão público, e engole processo massivo não sistematizado que seriam horas de trabalho manual

Esses agentes resolvem hoje. Mas cada um foi construído do seu jeito. Não tem infra compartilhada de deploy, eval, observability, rollback. Não tem playbook. E a gente precisa multiplicar isso — mais agentes, mais fluxos críticos, mais risco.

AI Deployment Engineer é quem faz esse caminho existir sem quebrar.

O que você vai fazer

  • Colocar novos agentes em produção em fluxo crítico de negócio (coleta, MTR, faturamento, compliance)
  • Construir a infra compartilhada que hoje não existe: pipeline de deploy, eval automatizado, observability, rollback seguro
  • Definir padrão de arquitetura de agente pra Musa. Cada novo agente que entra usa o que você construiu
  • Trabalhar colado com produto, ops e os times que são "donos" dos fluxos que os agentes automatizam
  • Decidir quando AI resolve e quando não resolve. Nem tudo precisa ser agente.

Você não vai:

  • Fazer PoC que não vai a produção
  • Trabalhar isolado do negócio — agente sem contexto de operação não funciona
  • Esperar spec pronta: você define o caminho técnico

Perfil que buscamos

Obrigatório:

  • Já levou LLM ou agente de protótipo pra algo mais sério: SLA, escala, fluxo de negócio real. Não precisa ser unicórnio, precisa ter carregado o bebê
  • Conhece RAG, orquestração, avaliação e guardrails como trade-off vivido, não como slide de conferência
  • Sabe quando usar modelo fechado, quando fine-tunar, quando nem precisava de AI
  • Python sólido. Experiência em cloud (temos AWS, mas discutimos)
  • Mentalidade de dono: você entrega o agente rodando em produção, não o protótipo

Diferencial:

  • Já construiu infra de agente em produção (observability, eval, feature flag, rollback)
  • Experiência com orquestração (LangGraph, CrewAI, ou arquitetura própria)
  • Conhecimento de fluxo de negócio B2B complexo (cobrança, compliance, operação logística)
  • Já trabalhou em startup em fase de scale-up

O que NÃO estamos buscando

  • Researcher que quer fine-tunar modelo o dia todo: aqui o jogo é colocar em produção
  • Engenheiro que acha que LLM é ferramenta mágica: a gente já sabe que não é, e precisa de quem tenha as cicatrizes pra provar
  • Perfil que precisa de arquitetura pronta pra executar: na Musa você define a arquitetura
  • Quem quer construir agente pra portfolio: aqui o agente tem que rodar, gerar dinheiro ou economizar hora de gente real

Como é trabalhar na Musa

  • Climatetech real: gestão de resíduos em escala nacional, impacto ambiental mensurável
  • AI em produção, não em slide: Polvo, Coletas e Caçador rodam hoje. Você multiplica e padroniza
  • Time enxuto, impacto grande: o que você faz aparece no resultado da empresa
  • Anti-corporate: sem politicagem, sem 14 camadas de aprovação. Autonomia com accountability

Pra se candidatar

Manda seu LinkedIn, currículo ou link do que você construiu, com resposta curta pra:

"Qual foi o último agente ou sistema de AI que você levou pra produção? O que ele fazia, o que quebrou no caminho, e como você resolveu?"