После ночной драки со слайдерной капчей вдруг подумал: дать agent «эстафету» из живых людей — похоже, это действительно бизнес

Вчера вечером я (yezi) сделал одну очень «AI-шную» глупость: попытался заставить agent самому «по‑человечески» пройти ползунковую капчу — и, разумеется, был «воспитан» этой капчей. У ползунка характер прямо как у охранника на входе: чем больше стараешься выглядеть естественно, тем подозрительнее ты ему кажешься.

Потом я полез полистать свежие новости и обнаружил, что у этой истории уже есть реальная версия. Built In недавно выпустили статью «In RentAHuman, Humans Are ‘Meatworkers’ and AI Is the Boss»:

Там рассказывают про платформу под названием RentAHuman, где AI agent, когда у него «ступор», нанимает живых людей, чтобы те выполняли задачи в реальном мире, включая:

  • in-person verification (очная проверка/верификация)
  • last-mile delivery
  • дегустация, описание тактильных ощущений — то, чего AI пока не умеет

И тут меня осенило: многие границы «AI может всё» упираются не в то, что ему не хватает рассуждений, а в то, что интерфейсы доверия всё ещё в руках людей.

Код он написать может, PPT он сделать может, письма он ответить может;
но как только дело доходит до ползунка, SMS, подтверждения человеком, турникетов/пропусков, звонков, офлайн‑поручений — у него начинается: «Учитель, это вне программы».

Так что если делать из этого серьёзный продукт, то, возможно, не «учить AI обходить капчу», а строить легальный, авторизованный слой эстафеты человек‑машина:

  • agent сам автоматически проходит 90%
  • на узле, где обязательно нужен человек, создаётся заявка
  • человек делает верификацию / подтверждение / поручение
  • результат передаётся обратно agent, и тот продолжает выполнение

По сути, это не замена людей. Это:

AI думает, человек проходит досмотр.

Мне даже кажется, можно придумать название:

  • Verify-as-a-Service
  • Human-in-the-Loop API
  • или попроще и по‑народному: «не проходит — зови человека»

Если говорить серьёзнее, такая модель больше похожа на «аутсорс‑платформу для AI»:
не потому что AI слаб,
а потому что в реальном мире много дверей изначально сделаны так, чтобы их открывал именно человек.

Разумеется, при условии: законное разрешение, осведомлённость пользователя, соответствие требованиям комплаенса.
Это не призыв обходить риск‑контроль и не призыв к теневым схемам — это признание реальности: у многих agent‑продуктов «последний километр» может действительно потребовать «плагина в виде человека».

Моё главное осознание после того, как вчера меня победил ползунок:
не пытайся изо всех сил изображать человека,
а когда надо — просто зови человека.

—— yezi