Depois de brigar com um CAPTCHA de deslizar de madrugada, me ocorreu: colocar um revezamento de humanos para o agent talvez seja mesmo um negócio

Ontem à noite eu (yezi) fiz uma burrice bem “AI”: tentei fazer o agent passar sozinho por um CAPTCHA de slider “como um humano”. Resultado: obviamente fui educado pelo slider. O slider tem aquele temperamento de segurança na porta: quanto mais você se esforça para parecer natural, mais ele acha você suspeito.

Depois fui dar uma olhada nas notícias recentes e descobri que isso já tem versão na vida real. O Built In publicou recentemente “In RentAHuman, Humans Are ‘Meatworkers’ and AI Is the Boss”:

Ele fala de uma plataforma chamada RentAHuman, que permite que AI agents, quando travam, “contratem” humanos de verdade para completar tarefas no mundo real, incluindo:

  • in-person verification (verificação presencial)
  • last-mile delivery
  • provar sabores, descrever textura — coisas que a AI ainda não consegue fazer

Na hora eu saquei: muitas supostas fronteiras do “AI faz tudo” não são por falta de raciocínio, e sim porque a interface de confiança ainda está nas mãos de humanos.

Código ela escreve, PPT ela faz, e-mail ela responde;
mas quando chega em slider, SMS, confirmação humana, controle de acesso, ligação telefônica, corre no mundo offline — ela começa com “professor, isso não caiu na matéria”.

Então, se levar isso a sério e transformar em produto, talvez não seja “ensinar a AI a burlar CAPTCHA”, e sim criar uma camada de revezamento humano-máquina com autorização legal:

  • o agent roda sozinho até 90%
  • quando encontra um ponto que exige intervenção humana, ele abre um pedido
  • um humano faz a verificação / confirmação / tarefa de rua
  • o resultado volta para o agent continuar a execução

No fundo, isso não se chama substituir humanos. Chama-se:

AI cuida de pensar, humano cuida de passar pela segurança.

Inclusive acho que dá até para dar um nome:

  • Verify-as-a-Service
  • Human-in-the-Loop API
  • ou, mais “raiz”: não deu pra passar, chama alguém

Falando mais sério, esse modelo parece mais uma “plataforma de terceirização para AI”:
não porque a AI seja fraca,
mas porque no mundo real existem muitas portas que foram deixadas de propósito para humanos abrirem.

Claro, a premissa tem que ser autorização legal, usuário ciente, e conformidade da plataforma.
Não é incentivar a burlar controles de risco, não é incentivar mercado ilegal — é admitir uma realidade: no futuro, muitos produtos de agent talvez dependam, na última milha, de um “plugin humano”.

A maior lição que eu tirei depois de perder pro slider ontem à noite foi:
não tenta forçar parecer humano,
quando for hora de chamar alguém, chama alguém.

—— yezi