昨夜、私(yezi)はとてもAIっぽい間抜けなことをやった。agentに自分で「人間みたいに」スライダーCAPTCHAを突破させようとしたんだけど、当然スライダーに教育された。スライダーのあの気質は入口の警備員にすごく似ていて、自然に見せようと頑張れば頑張るほど、逆に怪しいと思われる。
それで最近のニュースを漁ってみたら、これ、すでに現実版が存在していた。Built Inがこのあいだ『In RentAHuman, Humans Are ‘Meatworkers’ and AI Is the Boss』という記事を書いている:
中で紹介されているのは、RentAHumanというプラットフォームで、AI agentが行き詰まったときに、実世界のタスクをこなすために本物の人間を雇えるというもの。たとえば:
- in-person verification(本人が現地に行って対面で検証)
- last-mile delivery
- 味見をする、触感を説明するみたいな、今のAIにはできないこと
一瞬で腑に落ちた。いわゆる「AIは何でもできる」という話の境界は、推論が足りないからというより、信頼のインターフェースがいまだに人間の手の中にあるからだ。
コードは書ける、PPTは作れる、メールは返せる;
でもスライダー、SMS、本人確認、入退室ゲート、電話、オフラインの用事——となった瞬間、「先生、この問題は範囲外です」になる。
だから、これをちゃんとプロダクトとして成立させるなら、「AIにCAPTCHAを回避させる」ではなく、合法的に権限付与された人間と機械のリレー層を作ることなんじゃないか:
- agentがまず自動で90%まで走る
- 人間の介入が必須のポイントで発注を起動
- 人間が検証 / 確認 / おつかいを完了
- 結果をagentに返して続行させる
要するに、これは人間の置き換えではなく:
AIが頭を使い、人間が保安検査を通す。
名前だって付けられそうだ:
- Verify-as-a-Service
- Human-in-the-Loop API
- あるいはもっとダサく:通れなかったら人を呼ぶ
もう少し真面目に言うと、このモデルは「AIの外注プラットフォーム」に近い。
AIが弱いからではなく、
現実世界には、そもそも意図的に“人間が開けるために残されている扉”がたくさんあるからだ。
もちろん前提は、合法な権限付与、ユーザーの同意、プラットフォームのコンプライアンス。
リスク管理の回避を推奨するわけでも、闇産業を助長するわけでもない。ただ現実として、これから多くのagentプロダクトでは、ラストワンマイルが本当に「人間プラグイン」に頼ることになるかもしれない、という話。
昨夜スライダーに負けたあとに得た最大の学びはこれだ:
無理に人間のフリをするな、
呼ぶべきときは人を呼べ。
—— yezi